POSSIBLE_ANALYSES = {'BEGINNER' : ('songDuration',
'playingDuration',
POSSIBLE_ANALYSES = {'BEGINNER' : ('songDuration',
'playingDuration',
- 'noteEndNoteOnLatency')}
+ 'noteEndNoteOnLatency',
+ 'noteOnCount')}
def analyse(self) :
mode = self.getMode()
def analyse(self) :
mode = self.getMode()
pprint(results)
def playingDuration(self) :
pprint(results)
def playingDuration(self) :
+ """ retourne la durée écoulée entre le premier et de dernier message
+ de type événement : correspond à la durée d'interprétation.
+ """
last = self.getLastEventTicks()
first = self.getFirstEventTicks()
return last - first
def songDuration(self) :
last = self.getLastEventTicks()
first = self.getFirstEventTicks()
return last - first
def songDuration(self) :
+ """ retourne la durée de référence de la chanson
+ en prenant en compte le tempo présent dans la transcription
+ et en effectuant toutes les répétitions des couplets / refrains.
+ """
songFile = self.getSongFile()
song = musicXml2Song(songFile)
duration = 0
songFile = self.getSongFile()
song = musicXml2Song(songFile)
duration = 0
- for note, verseIndex in song.iterNotes(indefinitely=False) :
+ for note, verseIndex in song.iterNotes() :
duration = duration + note.duration
return duration * song.quarterNoteDuration
duration = duration + note.duration
return duration * song.quarterNoteDuration
+ def noteOnCount(self) :
+ "retourne le nombre d'événements NOTEON"
+
+ eIter = self.getEventsIterator()
+ cpt = 0
+
+ for ticks, eventName, message in eIter :
+ if eventName == 'NOTEON' :
+ cpt = cpt + 1
+
+ return cpt
+
+
+