<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD with MathML3 v1.2 20190208//EN" "JATS-journalpublishing1-mathml3.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" article-type="research-article" dtd-version="1.2" xml:lang="de">
<front>
<journal-meta>
<journal-id journal-id-type="publisher-id">JBDGM</journal-id>
<journal-id journal-id-type="nlm-ta">Jahrb Musikpsychol</journal-id>
<journal-title-group>
<journal-title>Jahrbuch Musikpsychologie</journal-title>
<abbrev-journal-title abbrev-type="pubmed">Jahrb. Musikpsychol.</abbrev-journal-title>
</journal-title-group>
<issn pub-type="epub">2569-5665</issn>
<publisher><publisher-name>PsychOpen</publisher-name></publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="publisher-id">jbdgm.217</article-id>
<article-id pub-id-type="doi">10.5964/jbdgm.217</article-id>
<article-categories>
<subj-group subj-group-type="heading"><subject>Research Reports</subject></subj-group>

<subj-group subj-group-type="badge">
<subject>Data</subject>
<subject>Code</subject>
</subj-group>
</article-categories>
<title-group>
<article-title>Dimensionen der Groove-Affordanz (DGA) beim Hören populärer Musik: Ein neues Messinstrument und eine vergleichende Validierungsstudie</article-title>
<trans-title-group xml:lang="en">
<trans-title>Dimensions of Groove Affordances (DGA) When Listening to Popular Music: A New Measurement Instrument and a Comparative Validation Study</trans-title>
</trans-title-group>
<alt-title alt-title-type="right-running">Groove-Affordanz beim Hören populärer Musik</alt-title>
<alt-title specific-use="APA-reference-style" xml:lang="de">Dimensionen der Groove-Affordanz (DGA) beim Hören populärer Musik: Ein neues Messinstrument und eine vergleichende Validierungsstudie</alt-title>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="yes"><contrib-id contrib-id-type="orcid" authenticated="false">https://orcid.org/0000-0002-2540-3661</contrib-id><name name-style="western"><surname>Lepa</surname><given-names>Steffen</given-names></name><xref ref-type="corresp" rid="cor1">*</xref><xref ref-type="aff" rid="aff1"><sup>1</sup></xref></contrib>
<contrib contrib-type="author"><name name-style="western"><surname>Ahrens</surname><given-names>Luzie</given-names></name><xref ref-type="aff" rid="aff1"><sup>1</sup></xref></contrib>
<contrib contrib-type="author"><contrib-id contrib-id-type="orcid" authenticated="false">https://orcid.org/0009-0001-1945-2547</contrib-id><name name-style="western"><surname>Pfleiderer</surname><given-names>Martin</given-names></name><xref ref-type="aff" rid="aff2"><sup>2</sup></xref></contrib>

	<contrib contrib-type="reviewer"><name name-style="western"><surname>Bechtold</surname><given-names>Toni</given-names></name></contrib>
	
	<contrib contrib-type="reviewer"><name name-style="western"><surname>Labonde</surname><given-names>Philippe</given-names></name></contrib>


<aff id="aff1"><label>1</label><institution content-type="dept">Fachgebiet Audiokommunikation</institution>, <institution>Technische Universität Berlin</institution>, <addr-line><city>Berlin</city></addr-line>, <country country="">Deutschland</country></aff>
<aff id="aff2"><label>2</label><institution>Institut für Musikwissenschaft, Hochschule für Musik Franz Liszt Weimar</institution>, <addr-line><city>Weimar</city></addr-line>, <country country="">Deutschland</country></aff>

</contrib-group>
<author-notes>
<corresp id="cor1"><label>*</label>Fachgebiet Audiokommunikation (Sekr. EN-8), Technische Universität Berlin, Einsteinufer 17c, 10587 Berlin, Deutschland. <email xlink:href="steffen.lepa@tu-berlin.de">steffen.lepa@tu-berlin.de</email></corresp>
</author-notes>
<pub-date date-type="pub" publication-format="electronic"><day>09</day><month>10</month><year>2025</year></pub-date>
	<pub-date pub-type="collection" publication-format="electronic"><year>2025</year></pub-date>
<volume>33</volume><elocation-id>e217</elocation-id>
<history>
<date date-type="received">
<day>12</day>
<month>03</month>
<year>2025</year>
</date>
<date date-type="accepted">
<day>28</day>
<month>08</month>
<year>2025</year>
</date>
</history>
<permissions><copyright-year>2025</copyright-year><copyright-holder>Lepa, Ahrens &amp; Pfleiderer</copyright-holder><license license-type="open-access" specific-use="CC BY 4.0" xlink:href="https://creativecommons.org/licenses/by/4.0/"><ali:license_ref>https://creativecommons.org/licenses/by/4.0/</ali:license_ref><license-p>This is an open-access article distributed under the terms of the Creative Commons Attribution (CC BY) 4.0 License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.</license-p></license></permissions>
<abstract>
<p>Beim Musikhören auftretende Bewegungsempfindungen und Bewegungsimpulse können ganz unterschiedliche Qualitäten besitzen und im Alltag bei hinreichendem Gefallen an der Musik und situativer Passung zu körperlichen Handlungen, z. B. Tanzbewegungen, führen. Um der qualitativen Vielfalt von musikinduzierten Bewegungsempfindungen zu begegnen, stellen wir mit den Dimensionen der Groove Affordanz (DGA) ein neues, theoretisch begründetes Messinstrument vor, welches auf einer Faktorenanalyse bereits erhobener Daten basiert und in der Lage ist, zwischen drei grundlegenden Dimensionen wahrgenommener rhythmischer Angebotsstrukturen beim Musikhören zu differenzieren: <italic>Roll</italic>, <italic>Drive</italic> und <italic>Pulse</italic>. Unter Nutzung digitaler Methoden der Datenerhebung (Webscraping, APIs, digitales Audiosampling und Online-Befragung) wird anschließend in Kombination mit Faktorenanalysen und Linear Mixed Models im Abgleich mit dem deutschsprachigen Experience of Groove Questionnaire (EGQ) untersucht, ob sich das neue Messinstrument auch an einem großen Stimuluspool von k = 448 Popmusikstücken hinsichtlich Modelpassung, Reliabilität und Diskriminanzvalidität bewährt. Dazu werden nach Berechnung von Faktorenwerten aus <italic>n</italic> = 1775 gesammelten Ratings von 178 Hörer*innen die nach Genres aufgetretenen Unterschiede bezüglich der Bewegungsempfindungen beim Hören von Popsong-Exzerpten ausgewertet. Die Analyseergebnisse zeigen, dass das DGA auch bei einer großen Anzahl musikalisch diverser Stimuli eine gute Modellpassung und Reliabilität aufweist und somit seinen Anspruch einlösen kann, unterschiedliche phänomenologische Aspekte von Bewegungsimpulsen bei vergleichsweise geringer Beeinflussung durch persönliches Gefallen abzubilden.</p>
</abstract><trans-abstract xml:lang="en">
<p>Movement sensations and impulses elicited by listening to music can vary greatly in quality and, in everyday contexts, may lead to physical actions such as dancing—provided the music is sufficiently enjoyable and the situation appropriate. To address the qualitative diversity of induced movement sensations, we introduce and methodologically validate the Dimensions of Groove Affordances (DGA), a new measurement instrument. Based on factor analyses of an existing dataset, the DGA distinguishes between three fundamental dimensions of perceived rhythmic structure during music listening: <italic>roll</italic>, <italic>drive</italic>, and <italic>pulse</italic>. Using digital methods of data collection (e.g., web scraping, APIs, digital audio sampling, and online survey) in combination with factor analyses and linear mixed models, we examine whether this new instrument demonstrates appropriate model fit, reliability, and discriminant validity—particularly in comparison to the German Experience of Groove Questionnaire (EGQ). The evaluation is conducted on a large stimulus pool of k = 448 popular music excerpts. Factor scores were calculated from <italic>n</italic> = 1,775 ratings provided by 178 participants. We then assessed genre-related differences in the movement sensations evoked by the short excerpts. Results indicate that the DGA exhibits good model fit and reliability across a musically diverse set of stimuli. It appears well-suited to capturing distinct phenomenological aspects of movement impulses with minimal bias resulting from individual musical preferences.</p></trans-abstract>
	<kwd-group kwd-group-type="author"><kwd>Rhythmus</kwd><kwd>Entrainment</kwd><kwd>Faktorenanalyse</kwd><kwd>Musikgenres</kwd><kwd>Affordanzen</kwd><kwd>Körperbewegung</kwd></kwd-group>
<kwd-group kwd-group-type="translator" xml:lang="en"><kwd>rhythm</kwd><kwd>entrainment</kwd><kwd>factor analysis</kwd><kwd>music genres</kwd><kwd>affordance</kwd><kwd>body movement</kwd></kwd-group>
</article-meta>
</front>
<body>
	<sec sec-type="intro"><title/>
<p>Einer der zentralen Aspekte beim Genuss populärer Musik ist die Groove-Erfahrung, sie bildet seit über zehn Jahren ein beliebtes Forschungsthema der Musikpsychologie. Analog zu einigen frühen empirischen, aber auch mehreren neueren Untersuchungen möchten wir im vorliegenden Beitrag dafür plädieren, in künftigen empirischen Studien ihren <italic>enaktiven Charakter</italic> stärker in den Blick zu nehmen, eine Sichtweise welche zunehmend auch durch musikpsychologische und neurowissenschaftliche Befunde gestützt wird. Dies impliziert, zusätzlich die beim Hören von Musik ausgelösten, qualitativ unterschiedlichen Arten von Bewegungsempfindungen und Bewegungsimpulsen systematisch zu erfassen. Diese Sichtweise begründen wir nachfolgend zunächst theoretisch sowie im Abgleich mit darauf bezogenen Forschungsergebnissen und stellen anschließend dazu ein neues Messinstrument vor.</p>
<sec><title>Groove in der Produktion und Rezeption populärer Musik</title>
<p>Groove wird aus Sicht von Musiker*innen vor allem als ein Aspekt der gezielten Rhythmusgestaltung verstanden. Die Gestaltung zyklischer Patternstrukturen oder Grooves gilt besonders in afroamerikanisch geprägten populären Musikgenres (Jazz, Latin, Funk, R‘n‘B, HipHop, Reggae, Dub, Elektronik) als elementares Stilmittel (<xref ref-type="bibr" rid="r45">Pfleiderer, 2002</xref>). Die sinnliche Erfahrung dieser Groovestrukturen wird manchmal (verkürzend) mit einem Gefühl der Tanzbarkeit gleichgesetzt. In diesem Sinne rangiert Groove in journalistischen und Alltagsdiskursen über populäre Musik häufig auch als wichtiger Faktor für die Popularität und den Erfolg entsprechender Musikstücke. Ein ganze Reihe von musikalisch-akustischen Faktoren werden in der Wissenschaft als ausschlaggebend für Groove-Erfahrungen diskutiert (<xref ref-type="bibr" rid="r14">Etani et al., 2024</xref>), so die Synkopierung, die Deutlichkeit des Grundschlags oder Beats (beat salience), Tempo und Ereignisdichte, Mikrotiming und dessen Abhängigkeit von Attack-Hüllkurven der Onsets sowie der Anteil von Bassf<?glue?>requenzen am Gesamtklang und die Einfachheit der harmonischen Gestaltung.</p>
<p>Verkompliziert wird die empirische Groove-Forschung nun dadurch, dass Groove ähnlich wie von Musik ausgedrückte Emotionen und Bedeutungen schon allein alltagsprachlich sowohl (1) als Eigenschaft der organisierten, klingenden bewegten Formen als auch (2) als ihre direkte Wirkung auf die Rezipient*innen sowie (3) als eine Form verkörperten musikalischen Handelns aufgefasst werden kann. Vor allem die beiden letztgenannten Sichtweisen auf Groove und ihre Implikationen sind Thema empirischer musikpsychologischer Forschung, welche typischerweise Fragebögen verwendet, wenngleich es auch einige neuere Ansätze für nicht-reaktive Messungen gibt (<xref ref-type="bibr" rid="r14">Etani et al., 2024</xref>).</p></sec>
<sec><title>Groove-Erfahrung als Effekt akustisch-musikalischer Faktoren</title>
<p>Eine Vielzahl von Arbeiten der empirischen Musikpsychologie untersuchen die Groo<?glue?>ve-Erfahrung experimentell als einen direkten Effekt der in den Stimuli enthaltenen, oben genannten musikalischen Merkmale. In den letzten Jahren wurde dazu vor allem der Experience of Groove Questionnaire (EGQ; <xref ref-type="bibr" rid="r61">Senn et al., 2020</xref>) eingesetzt. Dieser wurde erfolgreich auf Reliabilität geprüft und inzwischen auch ins Deutsche übersetzt (<xref ref-type="bibr" rid="r11">Düvel et al., 2021</xref>). Er läuft auf die Messung der beiden als unabhängig konzipierten Dimensionen <italic>Urge to move</italic> und <italic>Pleasure</italic> hinaus. Schon in den Entwicklungsstudien zeigte sich allerdings eine sehr hohe Korrelation zwischen diesen beiden Faktoren im Messmodell der geschätzten konfirmatorischen Faktorenanalyse (0.78 englische Version, 0.90 deutsche Version). Auch in neueren Arbeiten tritt wiederholt das Problem der hohen Korrelation beider Subdimensionen auf, die zu nahezu identischen Messergebnissen auf beiden Faktoren führt und inzwischen auch teilweise problematisierend diskutiert wird (<xref ref-type="bibr" rid="r29">Kowalewski et al., 2020</xref>; <xref ref-type="bibr" rid="r34">Matthews et al., 2023</xref>; <xref ref-type="bibr" rid="r44">Pando-Naude et al., 2024</xref>; <xref ref-type="bibr" rid="r50">Romkey et al., 2025</xref>; <xref ref-type="bibr" rid="r57">Seeberg et al., 2024a</xref>, <xref ref-type="bibr" rid="r58">2024b</xref>). Dieses in fast allen Studien unter Verwendung des EGQ beobachtete Phänomen ist jedoch nicht nur ein messtheoretisches Problem, sondern verweist auch auf eine mögliche inhaltlich-theoretische Problemlage: Wenn Befunde der Groove-Forschung etwa darauf hinweisen, dass ein mittlerer Grad von Synkopierung als optimal groovend empfunden wird (<xref ref-type="bibr" rid="r68">Witek et al., 2014</xref>), könnte dies schlichtweg auch so interpretiert werden, dass dieser mittlere Grad an Synkopierung einfach am ehesten von den Hörer*innen gemocht wird. Dieses Problem kann als erster Beleg dafür interpretiert werden, dass eine Fragebogen-Operationalisierung von Groove-Erfahrungen, die lediglich auf die subjektive Zustimmung zur empfundenen angenehmen Tanzlust abhebt, möglicherweise zu kurz greift. Es kann jedoch auch als Argument für die theoretische Validität eines alternativen enaktiven Verständnisses von Groove (<xref ref-type="bibr" rid="r37">Matyja &amp; Schiavio, 2013</xref>) betrachtet werden, welches im nachfolgenden Absatz entfaltet wird. Allerdings: Da EGQ-Messungen mehrheitlich bislang in Experimental-Studien vorgenommen werden, die meist nur wenige, in der Regel vorwiegend rhythmische musikalische Stimuli wie Drum-Patterns darbieten, ist auch nicht auszuschließen, dass es sich bei der oft beobachteten hohen Korrelation lediglich um ein methodisches Artefakt eines zu kleinen und zu sehr auf Rhythmusforschung ausgelegten Stimuluspools handelt. Diesem Einwand versuchen wir in der vorliegenden Arbeit durch Anwendung des EGQ an einem großen Pool von populären Musikstücken unterschiedlicher Genres und mit Hörer*innen unterschiedlichen Musikgeschmacks und unterschiedlicher Expertise zu begegnen.</p></sec>
<sec><title>Groove-Erfahrung als Folge verkörperten enaktiven musikalischen Handelns</title>
<p>Der vorherrschenden musikpsychologischen Sichtweise auf die Groove-Erfahrung liegt eine vielzitierte Definition von <xref ref-type="bibr" rid="r22">Janata et al. (2012)</xref> zugrunde: “[…] groove is that aspect of the music that induces a pleasant sense of wanting to move along with the music” (S. 56). Dieses Groove-Verständnis wird dann auch in vielen experimentellen Arbeiten der letzten Jahre kontinuierlich fortgeschrieben. Zwei Aspekte dieser Definition erscheinen uns jedoch zumindest kritikwürdig: Einerseits werden nicht alle von Musiker*innen durch Instrumentalspiel oder Musikproduktion hervorgebrachte rhythmische Bewegungsimpulse von allen Hörer*innen als angenehm empfunden. Wer einmal unfreiwillig in eine lautstarke Musikaufführung eines wenig präferierten Genres in einer Diskothek geraten ist, kann dies vermutlich anekdotisch bestätigen. Andererseits wird bei dieser Definition der aktive Beitrag von Hörer*innen zum Entstehen des „Urge to move“ im Rahmen der Musikrezeption wohlmöglich nicht genügend berücksichtigt – und dafür gibt es sowohl theoretische als auch empirische Argumente.</p>
<p>Wie inzwischen auch von einigen Autorinnen aus der Musikpsychologie postuliert wird (<xref ref-type="bibr" rid="r31">Levitin et al., 2018</xref>; <xref ref-type="bibr" rid="r67">Witek, 2017</xref>; <xref ref-type="bibr" rid="r10">Duman et al., 2024</xref>), sollte die Entstehung von Groove-Empfindungen als Folge einer aktiven und (als angenehm empfundenen) verkörperten Auseinandersetzung Musikhörender mit der bei der Wahrnehmung von Synkopen, Microtiming, Dynamik und Bass hervorgerufenen rhythmischen Angebotsstruktur der Musik aufgefasst werden, die wir im Folgenden als durch Musik ausgelöste Bewegungsempfindungen (englisch: feelings of motion) bezeichnen. Dass solche Bewegungsempfindungen existieren und relativ konsistent von Rezipient*innen nicht nur passiv empfunden, sondern in vielen Fällen gleichsam innerlich oder äußerlich motorisch mitvollzogen werden, wird nicht nur seit langem von Vertreter*innen der ökologischen Musikwahrnehmungstheorie unterstellt (<xref ref-type="bibr" rid="r66">Windsor &amp; de Bézenac, 2012</xref>, <xref ref-type="bibr" rid="r3">Burger et al. 2013</xref>). Vielmehr zeigen dies auch empirische Studien mit non-reaktiven Verfahren wie Pupillometrie (<xref ref-type="bibr" rid="r4">Bowling et al., 2019</xref>), EMG (<xref ref-type="bibr" rid="r65">Todd &amp; Cody, 2000</xref>) oder bildgebenden Verfahren der Neurowissenschaft (<xref ref-type="bibr" rid="r36">Matthews et al., 2020</xref>).</p>
<p>Während also davon auszugehen ist, dass stark rhythmische Musik durchaus in der Lage ist, bei ihren Hörer*innen im Sinne eines unwillkürlichen Effekts eine Synchronisation von Körperfunktionen und Körperbewegungen im Sinne eines automatischen Entra<?glue?>inments auszulösen (<xref ref-type="bibr" rid="r18">Gonzalez-Sanchez et al., 2018</xref>; <xref ref-type="bibr" rid="r27">Kern &amp; Lepa, 2014</xref>; <xref ref-type="bibr" rid="r25">Juslin, 2019</xref>), muss davon ausgegangen werden, dass die meisten Hörer*innen diesen Impulsen im Alltag bei normalen Abhörlautstärken nicht notwendigerweise folgen oder sie sogar bewusst willentlich unterdrücken. Umgekehrt wird das aktive, top-down gesteuerte Enaktieren empfundener Bewegungsimpulse, der innerliche oder sogar äußerliche, verkörperte Mitvollzug der rhythmischen Strukturen inzwischen als maßgeblich für die Entstehung von Groove-Empfinden als auch für die begleitenden angenehmen Gefühle verstanden, wie Ergebnisse neurowissenschaftlicher Studien belegen (<xref ref-type="bibr" rid="r36">Matthews et al., 2020</xref>).</p>
<p>Der viel beschworene Genuss von Groove wäre also aus einer enaktiven Perspektive kein direkter Effekt der dargebotenen musikalischen Stimuli, sondern ein Nebenprodukt eines willentlich gesteuerten resonierenden Einschwingvorgang des Geist-Körpersystems der Hörer*innen auf eine klingende, subjektiv vor dem Hintergrund der individuellen Erfahrungsgeschichte wahrgenommenen Angebotsstruktur im Sinne rhythmisch-klanglicher <italic>Affordanzen</italic> (<xref ref-type="bibr" rid="r30">Lepa, 2012</xref>), ein aktiv handelndes Sich-Einlassen (englisch: to enact), welches umso so wahrscheinlicher wird, je mehr die Musik persönlich gefällt und aktiv-nachvollziehend rezipiert wird und je mehr die Hörer*innen eine Form situativer Passung empfinden, indem sie sich dem Groove hingeben. Sich eingrooven (<xref ref-type="bibr" rid="r9">Dudenredaktion, n.d.</xref>) beschreibt entsprechend dieser Sichtweise auch in der Jugend- und Alltagssprache den Umstand, dass Subjekte sich willentlich und aktiv in Resonanz zur rhythmisch-klanglichen Angebotsstruktur oder Affordanz von Musik begeben. Groo<?glue?>ve-Erfahrungen entstehen nach einer solchen enaktiven Sichtweise der Musikrezeption als Handlung (<xref ref-type="bibr" rid="r37">Matyja &amp; Schiavio, 2013</xref>) also nicht einfach, weil Subjekte bestimmten musikalischen Stimuli mit einer bestimmten rhythmischen Struktur ausgesetzt werden, sondern weil diese die angebotenen Bewegungsimpulse aktiv innerlich und/oder äußerlich, also körperlich mitvollziehen (<xref ref-type="bibr" rid="r49">Roholt, 2014</xref>). Am Beispiel von Synkopen erläutert: “[..] syncopation opens up gaps in the music’s rhythmic surface, which listeners and dancers are invited to actively move into by synchronizing their movements to the underlying beat. In this way, moderate levels of syncopation require listeners to <italic>enact</italic> the beat itself [..]” (<xref ref-type="bibr" rid="r56">Schiavio et al. 2024</xref>, S. 6). Dies wird bei musikaffinen Menschen vermutlich häufig der Fall sein, und vor allem dann, wenn sie vor dem Hintergrund ihrer persönlichen, genrebezogenen Expertise einen geeigneten Zugang zu der spezifischen Angebotsstruktur des dargebotenen Rhythmus finden (<xref ref-type="bibr" rid="r7">Danielsen et al., 2022</xref>).</p>
<p>Die Plausibilität dieser Argumentation erhöht sich durch einige empirische Befunde aus der Musikpsychologie, die sämtlich darauf hindeuten, das individuelle Faktoren wie Musikgeschmack, Vertrautheit und Expertise das Ausmaß der Groove-Erfahrung überraschend stark prägen.</p></sec>
<sec><title>Individuelle Unterschiede bei der Intensität von Groove-Empfindungen</title>
<p><xref ref-type="bibr" rid="r35">Matthews et al. (2019)</xref> konnten etwa zeigen, dass Gefallen an der Musik zu großen Teilen als Mediator zwischen der Komplexität der dargebotenen Musik und dem empfundenen Urge to move fungiert – ohne Gefallen und Affinität zur dargebotenen Musik würde demnach kaum ein Tanzdrang entstehen. Ähnlich demonstrierten <xref ref-type="bibr" rid="r29">Kowalewski et al. (2020)</xref>, dass persönliche Sympathie für die Musiker*innen bei identischen Musikstimuli zu signifikant stärkeren Groove-Empfindungen führt. Befunde von <xref ref-type="bibr" rid="r43">O’Connell et al. (2022)</xref> konnten ferner belegen, dass sich musikalische Expertise, konkret Musical Training und Perceptual Abilities (<xref ref-type="bibr" rid="r42">Müllensiefen et al., 2014</xref>), sowie das Ausmaß persönlicher Tanzerfahrungen (<xref ref-type="bibr" rid="r52">Rose et al., 2022</xref>) signifikant auf die Sensibilität für die empfundene Intensität des Groove-Charakters der dargebotenen Musiktiteln auswirken. <xref ref-type="bibr" rid="r10">Duman et al. (2024)</xref> zeigten mit einer interpretativen Analyse von Freitextangaben zu Groove-Erfahrungen, die im Rahmen einer Online-Befragung gewonnen wurden, dass Informant*innen vor allem dann Groove erleben, wenn sie eine Beziehung zu den Künstler*innen haben, die gespielte Musik mögen oder deren wahrgenommener emotionaler Ausdruck ihrer aktuellen Stimmung entspricht. Senn et al.‘s (2018) Studienergebnisse belegten schließlich, dass persönliches Gefallen am Musikgenre und Vertrautheit eines Stimulus gemeinsam bereits 15% der Varianz in empfundener Groove-Intensität erklären, während alle dort geprüften Modelle mit ausschließlich musikalisch-rhythmischen Faktoren maximal 2% aufklären konnten.</p></sec>
<sec><title>Die empirische Erfassung wahrgenommener rhythmischer Affordanzen</title>
<p>Zusammengenommen weisen diese Befunde darauf hin, dass Groove-Empfindungen zu einem nicht zu vernachlässigenden Anteil auf persönlichem Gefallen, expertisebedingtem Zugang sowie der situativ empfundenen Passung der jeweils dargebotenen Musik beruhen. Hieraus ziehen wir zwei Schlussfolgerungen, die direkt zum empirischen Teil dieser Arbeit hinführen:</p>
<list id="L1" list-type="order">
<list-item>
<p>Wenn das Mögen (als zentrale Facette von Pleasure) der dargebotenen Musik gleichzeitig eine notwendige Bedingung für das Entstehen von Groove-Erfahrungen (Urge to move) wie ihre Folge ist, macht es wenig Sinn, es als eine unabhängige Dimension der Groove-Erfahrung zu begreifen und zu messen. Die in zahlreichen jüngeren Studien aufgetretenen extrem hohen Korrelationen zwischen Pleasure und Urge to move bestätigen diese Auffassung. Gleichzeitig scheint uns eine eindimensionale, vorrangig auf ‚Tanzlust‘ abzielende Erfassung von rhythmischen Erfahrungen mit Musik der Komplexität der Phänomene nicht gerecht zu werden. Dies wird in neueren Arbeiten der Musikpsychologie auch zunehmend reflektiert (z.&nbsp;B. <xref ref-type="bibr" rid="r62">Senn, Bechtold, Hoesl, et al., 2023</xref>).</p></list-item>
<list-item>
<p>Es scheint uns von daher sinnvoll, im Sinne des auch in der Musikwissenschaft zunehmend verbreiteten Affordanz-Konzepts zusätzlich die individuell wahrgenommene musikalisch-rhythmische Angebotsstruktur von Musikbeispielen zu erheben. Dabei geht es uns nicht darum, deren klanglich-musikalischen Strukturen zu beschreiben, sondern vielmehr darum, die hieraus bei den jeweiligen Hörer*innen entstehenden Bewegungsempfindungen zu erfassen, unabhängig davon, ob Hörer*innen dabei ein angenehmes Bedürfnis zu Tanzen verspüren und/oder sich überhaupt darauf enaktiv einlassen können. Eine solche Messung käme dem analytischen Ansinnen entgegen zu verstehen, welche musikalisch-rhythmischen Hinweisreize potenziell, also z. B. bei hinreichender Lautstärke sowie situativer Passung zwischen Hörer*innen und Kontexten, einen angenehmen Bewegungswunsch bzw. Groove-Erfahrungen auslösen können. Dies dürfte für zahlreiche angewandte Forschungsbereiche, etwa die Entwicklung von Verfahren des Music Information Retrieval (MIR), zur Vorhersage des Grades der Tanzbarkeit musikalischer Stimuli zielführender sein als ein offenbar viel zu stark von individuellem Geschmack und Hörexpertise abhängiges Maß.</p></list-item>
</list>
<p>Während in den frühen theoretischen Arbeiten von Charles <xref ref-type="bibr" rid="r28">Keil (1987)</xref> bereits der enaktive Aspekt des Prozessierens von rhythmischen Strukturen als Auslöser von Groove-Erfahrungen vorgedacht wurde, haben sich unseres Wissens bislang nur drei Arbeiten mit der empirischen Erfassung wahrgenommener rhythmischer Angebotsstrukturen via Fragebögen befasst: <xref ref-type="bibr" rid="r17">Gabrielsson (1973)</xref> untersuchte mit Adjektivlisten die Empfindung der Bewegungsimpulse dargebotener Rhythmen und fand dabei mehrere unterschiedliche Dimensionen. <xref ref-type="bibr" rid="r33">Madison (2006)</xref> führte eine ähnliche Untersuchung mit 64 achtsekündigen Musikausschnitten durch und ermittelte die vier Dimensionen <italic>Regularity</italic>, <italic>Groove</italic>, <italic>Swing</italic> und <italic>Flow</italic>; er verwendete dabei Groove zusätzlich als Oberbegriff für die untersuchten Phänomene. <xref ref-type="bibr" rid="r47">Pfleiderer (2010)</xref> verwendete insgesamt 77 Adjektive zur Beurteilung mehrerer Musikbeispiele und identifizierte per Hauptkomponentenanalyse (PCA) zahlreiche Subdimensionen der Bewegungsempfindung. Diese Daten wurden in der vorliegenden Arbeit im Rahmen einer Sekundäranalyse unter Verwendung alternativer Analyseverfahren nun zu einem neuen Messinstrument weiterentwickelt, welches zentrale Dimensionen von Bewegungsimpulsen erfasst, die kohärent von einer großen Anzahl von Hörer*innen unterschiedlicher musikalischer Sozialisation wahrgenommen werden können: Die Dimensionen der Groove-Affordanz (DGA).</p></sec>
<sec><title>Forschungsfragen der beiden empirischen Teilstudien</title>
<p>In der zuerst durchgeführten Entwicklungsstudie der DGA wurde mit Hilfe einer Sekundäranalyse der Originaldaten von <xref ref-type="bibr" rid="r47">Pfleiderer (2010)</xref> unter Verwendung verschiedener, dem Datensatz angemessenerer statistischer Verfahren (EFA statt PCA, oblique Rotation, robuster Schätzer, Paralleltest zur Faktorenzahlbestimmung, vgl. <xref ref-type="bibr" rid="r15">Fabrigar et al., 1999</xref>) ein deutschsprachiges standardisiertes Fragebogeninstrument zur Messung zentraler Dimensionen der wahrgenommenen Groove-Angebotsstruktur (Affordanz) konstruiert.</p>
<p>Daran anschließend wurden in einer ersten Validierungsstudie die beiden deutschsprachigen Messinstrumente EGQ und DGA an einem über eine Online-Befragung gewonnenen Datensatz und unter Verwendung eines großen Stimuluspools aktueller populärer Musik im Hinblick auf Messmodellpassung, Faktorreliabilität (<xref ref-type="bibr" rid="r5">Cho, 2016</xref>) und Diskriminanzvalidität (<xref ref-type="bibr" rid="r51">Rönkkö &amp; Cho, 2022</xref>) der gemessenen Dimensionen überprüft und zusätzlich einer ersten Erprobung der Kriteriumsvalidität (<xref ref-type="bibr" rid="r48">Raykov, 2012</xref>) in Bezug auf Genreunterschiede unterzogen. Die Forschungsfragen lauteten dabei:</p>
<list id="L2" list-type="order">
<list-item>
<p>Lassen sich die Dimensionen der beiden deutschsprachigen Instrumente zur Messung der Groove-Erfahrung (EGQ, DGA) mit einem größeren Musikpool aktueller populärer Musik mit hinreichender Passung, Reliabilität und Diskriminanzvalidität reproduzieren?</p></list-item>
<list-item>
<p>Auf welchen Dimensionen der beiden Instrumente zeigen sich unter Berücksichtigung von Musikvorlieben und Musikexpertise Unterschiede zwischen Musik aus verschiedenen Genres aktueller populärer Musik?</p></list-item>
</list>
<p>Zum gewählten Vorgehen der initialen Validierungsstudie ist anzumerken, dass es in Bezug auf die inhaltliche Validierung von Messinstrumenten für die Musikpsychologie grundsätzlich immer einen Zielkonflikt zwischen Fragen interner und externer Validität gibt. Das gilt auch für die Messung von Groove-Empfindungen, wie sich an existierenden Arbeiten aufzeigen lässt: Kontrollierte Experimentalstudien mit eher wenigen, systematisch ausbalancierten und auf die strenge Prüfung rhythmuspsychologischer Fragestellungen ausgerichteten Stimuli-Sets können helfen zu testen, ob vermutete musikalische Einflussfaktoren tatsächlich verantwortlichen für gemessene Bewegungsempfindungen sind – dieser Überprüfung wird sich in Zukunft auch der DGA Fragebogen stellen müssen. Umgekehrt bedarf es aber unseres Erachtens auch ex-post-facto Studien mit großen, repräsentativen und damit typischerweise nicht ausbalancierten Korpora erfol<?glue?>greicher populärer Musik, um zu demonstrieren, dass sich ein neues Messinstrument auch zur groben Unterscheidung rhythmischer Erfahrungen bei von vielen Menschen heute im Alltag gehörter Musik bewährt. <xref ref-type="bibr" rid="r22">Janata et al. (2012)</xref> verwendeten in dieser Weise etwa 148 Musikausschnitte populärer Musik, die größtenteils aus dem iTunes Music Store stammten, und konnten Unterschiede in der Groove-Wahrnehmung zwischen vier verschiedenen Genres ermitteln. Allerdings nahmen an dieser Studie nur 19 Studierende teil. <xref ref-type="bibr" rid="r60">Senn et al. (2021)</xref> werteten 208 Stimuli populärer Musik der vergangenen sechs Jahrzehnte bei 233 Teilnehmenden eines Online-Experiments unter Berücksichtigung der Stück-Vertrautheit und aus den Daten abgeleiteten Meta-Genre-Vorlieben aus und fanden signifikant höhere Groove-Beurteilungen für Stimuli aus zu Funk und Pop zusammengefassten Meta-Genres gegenüber Songausschnitten, die eher dem Rock zuzurechnen waren. Jene Studie diente der vorliegenden als Vorbild, wobei wir speziell daran interessiert waren, herauszufinden, ob sich auch mit aktueller populärer Musik, einer deutlichen feinteiligeren, durch Dritte vorgegebenen Genreklassifikation und einer nicht-ausbalancierten Stimulusauswahl signifikante Unterschiede bei der Rhythmusempfindung aufzeigen lassen. Zur Sicherung der Validität der Ergebnisse bei diesen erschwerten Voraussetzungen verwendeten wir statistische Analysemethoden, die mit stark unterschiedlichen Teilstichproben gut umgehen können und ergänzten diese durch Simulationsstudien zu Teststärke und Schätzpräzision.</p></sec></sec>
<sec sec-type="other2"><title>Methoden – Entwicklungsstudie des DGA</title>
<sec><title>Stichprobe, Stimuli, Ablauf und Messungen</title>
<p>Für die Entwicklung des deutschsprachigen Dimensionen-der-Groove-Affordanz- Fragebogens (DGA) wurden die von <xref ref-type="bibr" rid="r47">Pfleiderer (2010)</xref> erhobenen Rohdaten einer Sekundäranalyse unterzogen. Die enthaltenen <italic>n</italic> = 134 Ratings stammen von 38 Studierenden der Musikwissenschaft in zwei Uni-Seminaren in Hamburg und Weimar, die insgesamt neun verschiedene Musiktitel hörten (vgl. <xref ref-type="table" rid="t1">Tabelle 1</xref> für eine Übersicht gültiger Bewertungen pro Titel) und nach jedem Stück den Charakter der bei ihnen während des Hörens ausgelösten Empfindungen anhand einer Item-Liste von 77 Adjektiven auf einer 6-stufigen Skala von <italic>trifft überhaupt nicht zu</italic> bis <italic>trifft genau zu</italic> per Fragebogen beurteilten (Items in <xref ref-type="table" rid="t9">Tabelle 9</xref> im Anhang). Es handelt sich um sechs sehr rhythmische Popmusiktitel und drei geloopte Breakbeatsamples, die aufgrund ihres groovigen Charakters sehr häufig in Hi<?glue?>pHop und elektronischer Tanzmusik eingesetzt werden (<xref ref-type="bibr" rid="r46">Pfleiderer, 2006</xref>, S. 325). Weitere Details der Datenerhebung und damaligen Datenanalyse lassen sich dem Open-Access Artikel von <xref ref-type="bibr" rid="r47">Pfleiderer (2010)</xref> entnehmen.</p>
<table-wrap id="t1" position="anchor" orientation="portrait"><?pagebreak-before?>
<label>Tabelle 1</label><caption><title>Datenbasis für die Entwicklung des DGA</title></caption>
<table frame="hsides" rules="groups">
<col width="70%" align="left"/>
<col width="30%"/>
<thead>
<tr>
<th>Stimulus</th>
<th>Gültige Ratings</th>
</tr>
</thead>
<tbody>
<tr>
	<td>King Tubby: „Natural Dub“ (Sanctuary Records, 1976)</td>
<td>25</td>
</tr>
<tr>
	<td>Jalal: „Word of the Wise“ (On The One, 1997)</td>
<td>17</td>
</tr>
<tr>
	<td>John Scofield: „Lazy“ (Blue Note, 2000)</td>
<td>13</td>
</tr>
<tr>
	<td>Nightmares on Wax: „Dextrous“ (Warp Records, 1989)</td>
<td>15</td>
</tr>
<tr>
	<td>Curtis Mayfield: „Trippin' Out“ (RSO, 1980)</td>
<td>15</td>
</tr>
<tr>
	<td>King Floyd: „Groove Me“ (Atlantic, 1971)</td>
<td>20</td>
</tr>
<tr>
<td>„Apache“ Breakbeat</td>
<td>9</td>
</tr>
<tr>
<td>„Amen“ Breakbeat</td>
<td>10</td>
</tr>
<tr>
<td>„Funky Drummer“ Breakbeat</td>
<td>10</td>
</tr>
</tbody>
</table>
</table-wrap>
</sec>
<sec><title>Statistische Analyse</title>
<p>Zur Ermittlung der den Item-Ratings zugrundeliegenden Dimensionen wurde zunächst auf der Matrix aller Beurteilungen eine Explorative Faktorenanalyse (EFA) gerechnet. Dabei wurde der minimum-residuals-Ansatz mit obliquer Oblimin-Rotation gewählt, die Bestimmung der Faktorenzahl erfolgte anhand des Paralleltest-Kriteriums. Anschließend wurde mit Hilfe der &gt; .6 ladenden Items jedes identifizierten Faktors explorativ ein initiales Faktormessmodell mit Einfachstruktur konstruiert und mit Hilfe des R-Pakets <italic>lavaan</italic> (<xref ref-type="bibr" rid="r53">Rosseel, 2012</xref>) auf Fit geprüft. Dabei wurde der Robust Maximum Likelihood Schätzer (MLR) verwendet, aufgrund der Messwiederholungen cluster-robuste Standardfehler berechnet und zur Beurteilung des Modellfits auf die robusten Varianten der Fitindizes CFI (Comparative Fit Index), RMSEA (Root Mean Square Error of Approximation) und SRMR (Standardized Root Mean Squared Residual) zurückgegriffen (<xref ref-type="bibr" rid="r54">Savalei, 2018</xref>). Auf Basis von Modifikationsindizes wurde dieses Initialmodell durch Weglassen einzelner Items schrittweise optimiert, bis eine angemessene Passung zu den Daten und somit ein gutes CFA-Messmodell erreicht war. Um sicherzustellen, dass bei gegebener Beobachtungszahl trotz stark unterschiedlicher Häufigkeiten von Messwiederholungen bei den Befragten hinreichende Teststärke für unverzerrte Parameterschätzungen und Fit-Indizes des Messmodells vorlagen, wurde mit MPLUS eine Monte-Carlo-Simulation für konfirmatorische Faktorenanalysen (<xref ref-type="bibr" rid="r41">Muthén &amp; Muthén, 2002</xref>) mit 1000 Wiederholungen unter Annahme von vier Items pro Faktor, Faktorladungen von .7, Faktorkorrelationen von .3, Residualstreuungen von .4 und einer inner-Subjekt-SD der Items von .5 gerechnet (entspricht hier einem mittleren <italic>ICC</italic> von .33). Laut den Ergebnissen (vgl. digitaler Anhang) sind bei gegebener Stichprobenstruktur Coverage-Werte zwischen .89 und .98 sowie eine Teststärke zwischen .97 und 1 zu erwarten. Die prognostizierten Schätzer für sämtliche beta-Koeffizienten und Standardfehler sind mit unter 5% höchstens minimal verzerrt und die Streuung der prognostizierten Modellfitindizes überschritt lediglich für den SRMR mit <italic>M</italic> = .08 und <italic>SD</italic> = .01 leicht die üblichen Cut-Off-Werte (<xref ref-type="bibr" rid="r21">Hu &amp; Bentler, 1999</xref>).</p></sec></sec>
<sec sec-type="other3"><title>Ergebnisse – Entwicklungsstudie des DGA</title>
<p>Die Stichprobe wies mit Blick auf einschlägige Simulationsstudien hinsichtlich ihrer Größe von <italic>n</italic> = 134 die prinzipielle Eignung zur Entdeckung von mindestens 6 unterschiedlichen Faktoren auf (<xref ref-type="bibr" rid="r15">Fabrigar et al., 1999</xref>), keine der eingebrachten Variablen hatte zudem MSA-Werte kleiner als .50. Der Paralleltest wies auf eine optimale Repräsentation der in Beurteilungsmatrix enthaltenen Itemvarianzen durch vier oder weniger Faktoren hin. Die nach der oblimin-Rotation erhaltene Ladungsmatrix mit vier Faktoren, die zusammen ungefähr 50% der Itemvarianzen aufklären, findet sich als <xref ref-type="table" rid="t9">Tabelle 9</xref> im Anhang.</p>
<p>Der erste Faktor (23% der Itemvarianzen) wurde als <italic>Drive</italic> bezeichnet, weil die auf ihm hochladenden Adjektive („hämmernd“, „heftig“, „ruhelos“, „gehetzt“) das Phänomen eines Durch-den-Rhythmus-angetrieben-Werdens beschreiben, das auch von den Informant*innen von Duman et al. (2024, S. 104ff.) betont wurde, außerdem lädt das Item „vorwärtstreibend“ einzig auf diesem Faktor. Der zweite Faktor (9% der Itemvarianzen) wurde als <italic>Roll</italic> bezeichnet, weil die Adjektive „bewegungsanregend“, „schwungvoll“, „lebendig“ und „vital“ eine leichte, angenehm lebendige Bewegungsempfindung zu bezeichnen scheinen, wie sie zum Beispiel auch mit „flowing“, „swinging“ in der Studie von <xref ref-type="bibr" rid="r33">Madison (2006)</xref> auftrat. Der dritte Faktor (9% der Itemvarianzen) wurde <italic>Pulse</italic> genannt, weil die auf ihm hoch ladenden Adjektive („einheitlich“, „beständig“, „regelmäßig“, „geordnet“) eine eher monotone, sich wiederholende rhythmische Anregung des Körpers durch die Musik beschreiben, die auch bei Duman et al. (2024, S. 105) von einigen Befragten thematisiert wurde. Der vierte Faktor (8% der Itemvarianzen) wurde als <italic>Play</italic> bezeichnet, weil er mit den Adjektiven „freudig“, „verspielt“, „feierlich“, und „schwer“ (negativ ladend) die Dimension der Freude und Verspieltheit der erfahrenen Bewegungsempfindung zu erfassen scheint. Das aus dieser EFA-Lösung konstruierte initiale CFA-Messmodell wies mit <italic>n</italic> = 134, Χ<sup>2</sup> = 1516.74, <italic>df</italic> = 658, <italic>p</italic> &lt; .001, <italic>CFI</italic> = .677, <italic>SRMR</italic> = .117, <italic>RMSEA</italic> = .099 erwartungsgemäß zunächst einen kaum akzeptablen Fit zu den Daten auf. Daher wurden nachfolgend schrittweise Items eliminiert, die entweder zu gering oder in vergleichbarer Höhe auf mehreren Faktoren luden. Dieser Optimierung fiel schließlich der gesamte vierte Faktor zum Opfer, da seine Itemresidualvarianzen durchgehend zu stark mit den Itemresidualvarianzen des Faktors <italic>Roll</italic> korrelierten.</p>
<p>Das auf diesem Weg erreichte finale CFA-Messmodell mit den drei Dimensionen Drive, Roll und Pulse (vgl. <xref ref-type="table" rid="t2">Tabelle 2</xref>) weist trotz der vergleichsweise geringen Anzahl zugrundeliegender Beobachtungen einen guten Fit auf (<italic>n</italic> = 134, Χ<sup>2</sup> = 65.24, <italic>df</italic> = 51, <italic>p</italic> = .087, <italic>CFI</italic> = .974, <italic>SRMR</italic> = .060, <italic>RMSEA</italic> = .046, 95% CI [.001, .073]). Die modellimplizierten Faktorkorrelationen betragen β<sub>RollDrive</sub> = .24, β<sub>DrivePulse</sub> = .03, β<sub>RollPulse</sub> = -.05.</p>
<table-wrap id="t2" position="anchor" orientation="portrait">
<label>Tabelle 2</label><caption><title>Finales CFA-Messmodell für Dimensionen der Groove-Angebotsstruktur</title></caption>
<table frame="hsides" rules="groups">
<col width="10%" align="left"/>
<col width="30%"/>
<col width="10%"/>
<col width="10%"/>
<col width="10%"/>
<col width="10%"/>
<col width="20%"/>
<thead>
<tr>
<th>Faktor</th>
<th align="left">Item</th>
<th><italic>b</italic></th>
<th><italic>SE</italic></th>
<th><italic>Z</italic></th>
<th><italic>p</italic></th>
<th>stand. Ladung</th>
</tr>
</thead>
<tbody>
<tr>
<td rowspan="4" scope="rowgroup">Drive</td>
	<td align="left">gehetzt</td>
<td align="char" char=".">1.03</td>
<td align="char" char=".">0.10</td>
<td align="char" char=".">10.72</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.83</td>
</tr>
<tr>
	<td align="left">heftig</td>
<td align="char" char=".">1.06</td>
<td align="char" char=".">0.11</td>
<td align="char" char=".">9.86</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.79</td>
</tr>
<tr>
	<td align="left">ruhelos</td>
<td align="char" char=".">0.93</td>
<td align="char" char=".">0.11</td>
<td align="char" char=".">8.54</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.70</td>
</tr>
<tr>
	<td align="left">hämmernd</td>
<td align="char" char=".">0.89</td>
<td align="char" char=".">0.10</td>
<td align="char" char=".">8.62</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.70</td>
</tr>
<tr>
<td rowspan="4" scope="rowgroup">Roll</td>
	<td align="left">vital</td>
<td align="char" char=".">1.01</td>
<td align="char" char=".">0.09</td>
<td align="char" char=".">10.71</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.83</td>
</tr>
<tr>
	<td align="left">lebendig</td>
<td align="char" char=".">0.84</td>
<td align="char" char=".">0.09</td>
<td align="char" char=".">9.65</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.77</td>
</tr>
<tr>
	<td align="left">schwungvoll</td>
<td align="char" char=".">0.93</td>
<td align="char" char=".">0.10</td>
<td align="char" char=".">9.17</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.74</td>
</tr>
<tr>
	<td align="left">bewegungsanregend</td>
<td align="char" char=".">0.81</td>
<td align="char" char=".">0.10</td>
<td align="char" char=".">7.95</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.66</td>
</tr>
<tr>
<td rowspan="4" scope="rowgroup">Pulse</td>
	<td align="left">regelmäßig</td>
<td align="char" char=".">0.69</td>
<td align="char" char=".">0.08</td>
<td align="char" char=".">8.63</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.75</td>
</tr>
<tr>
	<td align="left">einheitlich</td>
<td align="char" char=".">0.70</td>
<td align="char" char=".">0.09</td>
<td align="char" char=".">7.87</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.70</td>
</tr>
<tr>
	<td align="left">beständig</td>
<td align="char" char=".">0.58</td>
<td align="char" char=".">0.08</td>
<td align="char" char=".">7.36</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.69</td>
</tr>
<tr>
	<td align="left">geordnet</td>
<td align="char" char=".">0.59</td>
<td align="char" char=".">0.090</td>
<td align="char" char=".">6.58</td>
<td align="char" char=".">&lt; .001</td>
<td align="char" char=".">0.60</td>
</tr>
</tbody>
</table>
</table-wrap></sec>
<sec sec-type="other4"><title>Methoden – Validierungsstudie (DGA und EGQ)</title>
<p>Zur ersten Validierung des neuen DGA-Messinstruments wurde im Frühjahr 2024 eine Online-Befragungsstudie durchgeführt, deren Ziel es war, das neue Instrument mit einer größeren Anzahl von Proband*innen an einem möglichst großen und diversen Pool musikalischer Stimuli aus dem Bereich aktuell populärer Musik im Abgleich mit dem deutschen EGQ zu testen.</p>
<sec><title>Stichprobe</title>
<p>Die Stichprobe umfasste 178 Personen (113 weiblich, 60 männlich, 5 divers), mit einem biologischen Alter von <italic>M</italic> = 47.7, <italic>SD</italic> = 11.7, <italic>Min</italic> = 14, <italic>Max</italic> = 68. <xref ref-type="fig" rid="f1">Abbildung 1</xref> zeigt die Altersverteilung. Bei der Rekrutierung möglicher Teilnehmer*innen wurden verschiedene Kanäle benutzt, und zwar E-Mail-Verteiler der Universität, persönliche Kontakte der Autor*innen sowie verschiedene Social Network Communities.</p>
	
	<fig id="f1" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 1</label><caption>
<title>Verteilung der Teilnehmer*innen nach Alter</title></caption><graphic xlink:href="jbdgm.217-f1" position="anchor" orientation="portrait"/></fig>

</sec>
<sec><title>Stimuli</title>
<p>Die verwendete Musik stammte aus den <italic>US-Billboard-Year-End-Hot-100-Single-Charts</italic> von 2017 bis 2022. Dazu wurde eine Titelliste per Webscraping von <ext-link ext-link-type="uri" xlink:href="https://www.billboard.com/charts/year-end/">https://www.billboard.com/charts/year-end/</ext-link> erstellt. Nach Entfernung von 57 Duplikaten verblieben 543 Songs, deren Spotify-URIs mit der Spotify-API ermittelt wurden, um von diesen mit Hilfe des Spotify-Web-Players und eines Python-Skriptes 30 Sekunden lange Exzerpte digital zu samplen, die für die spätere Befragung ins MP3-Format enkodiert wurden. Anschließend wurde mittels der discogs_client-Python-Bibliothek (<xref ref-type="bibr" rid="r23">Joalla, 2024</xref>), die bei Discogs hinterlegten primären Genre-Informationen für alle Musiktitel ermittelt. Gelang dies nicht, wurde der jeweilige Titel von der weiteren Analyse ausgeschlossen. Der finale Stimuluspool enthielt 450 Song-Exzerpte, die den Genres <italic>Electronic</italic> (66), <italic>Folk, World &amp; Country</italic> (58), <italic>Funk, Soul &amp; R‘n‘B</italic> (18), <italic>HipHop</italic> (183). <italic>Latin</italic> (6), <italic>Pop</italic> (93), <italic>Reggae</italic> (2) und <italic>Rock</italic> (24) durch die Nutzer*innen von Discogs zugeordnet waren. Nach manueller Überprüfung der aufgelisteten Titel wurde nachfolgend <italic>Country</italic> für die Discogs-Kategorie „Folk, World &amp; Country“ (Country-Songs dominierten eindeutig diese Kategorie) und <italic>R’n’B</italic> für die Kategorie „Funk, Soul &amp; R’n’B“ (entsprechend der heute gängigen Genrebezeichnung) verwendet. Unter <italic>Electronic</italic> werden bei Discogs sowohl Electronic Dance Music als auch Electronic Pop, z. B. Songs von Billie Eilish, verstanden.</p></sec>
<sec><title>Ablauf und Messungen</title>
<p>Die Teilnehmer*innen gelangten über eine URL im Studienaufruf zu dem mit Limesurvey programmierten Online-Fragebogen. Nach explizitem Einverständnis mit der Datenschutzerklärung wurden sie um die Angabe von Geburtsjahr und Geschlecht und ihrer persönlichen Präferenz für jedes der elf im Stimuluspool vorkommenden Popmusik-Genres auf einer 7-stufigen Skala von <italic>höre ich sehr ungern</italic> bis <italic>höre ich sehr gerne</italic> gebeten. Nachfolgend hatten sie auf einer 5-stufigen Ordinalskala anzugeben, wie häufig sie selbstgewählte Musik im Alltag hören und wie häufig sie sich körperlich im Alltag zu Musik bewegen (von <italic>selten bis nie</italic> bis <italic>mehrmals täglich</italic>).</p>
<p>Danach wurden die Items der Goldsmith-Musical-Sophistication-Index-Subskalen Musical Training und Perceptual Abilities (<xref ref-type="bibr" rid="r55">Schaal et al., 2014</xref>) mittels der vorgesehenen 7-stufigen Likert-Skalen vorgelegt. Anschließend erfolgte ein kurzer Test mit einem akustischen Beispielstimulus zur Sicherstellung einer hinreichenden Wiedergabelautstärke.</p>
<p>Im Hauptteil der Befragung wurden den Teilnehmer*innen auf zehn Seiten jeweils ein Audioplayer zum Abspielen eines zufällig aus dem Stimuluspool ausgewählten Musikexzerpts dargeboten, sowie der Itemkatalog des EGQ mitsamt Instruktion („Bitte geben Sie Ihre Zustimmung zu den nachfolgenden Aussagen bezüglich des Musikbeispiels an.“) und der Itemkatalog des DGA mitsamt Instruktion („Beurteilen Sie, wie sehr die folgenden Adjektive zu den Bewegungs-Empfindungen passen, welche das Musikbeispiel bei Ihnen während des Hörens ausgelöst hat.“). Der Wortlaut der Items findet sich in <xref ref-type="fig" rid="f2">Abbildungen 2</xref> und <xref ref-type="fig" rid="f3">3</xref>. Die Reihenfolge der Itemdarbietung war dabei für jede Versuchsperson unterschiedlich randomisiert. Abschließend wurden die Teilnehmenden dichotom gefragt, ob sie den jeweiligen Song bereits kannten.</p>
	
	<fig id="f2" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 2</label><caption>
<title>Pfaddiagramm der CFA zum Experience of Groove Questionnaire (EGQ) (n = 1775, k = 178)</title></caption><graphic xlink:href="jbdgm.217-f2" position="anchor" orientation="portrait"/></fig>
	
	<fig id="f3" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 3</label><caption>
<title>Pfaddiagramm der CFA zu Dimensionen der Groove Affordanz (DGA) (n = 1775, k = 178)</title></caption><graphic xlink:href="jbdgm.217-f3" position="anchor" orientation="portrait"/></fig>
	
<p>Um die Datenqualität im Kontext einer Online-Befragung zu sichern, waren sämtliche Fragebogenangaben verpflichtend – die Befragung konnte somit nur abgeschlossen werden, wenn sämtliche Musikexzerpte abgespielt und sämtliche Fragen auch beantwortet worden waren. Ein im Browser lokal gespeicherter Cookie sorgte dafür, dass auch bei etwaigem Browserschließen oder Browserabsturz die Befragung später an der richtigen Stelle fortgesetzt werden konnte. Die Bearbeitung des gesamten Online-Fragebogens nahm im Median 19 Minuten in Anspruch.</p></sec>
<sec><title>Statistische Analysen</title>
<p>Der Fragebogen stand vier Wochen lang online. Danach erfolgte eine deskriptive Analyse des Datensatzes. Songs, die zufallsbedingt weniger als drei Beurteilungen erhalten hatten, wurden von der weiteren Analyse ausgeschlossen, gleiches galt für Genres mit weniger als sechs beurteilten Titeln.</p>
<p>Zur Beantwortung der ersten Forschungsfrage wurden dann zwei konfirmatorische Faktorenanalysen (CFA) durchgeführt, eine für das EGQ und eine für die DGA. Hierfür wurde das R-Paket <italic>lavaan</italic> (<xref ref-type="bibr" rid="r53">Rosseel, 2012</xref>) in Kombination mit <italic>semTools</italic> (<xref ref-type="bibr" rid="r24">Jorgensen et al., 2022</xref>) verwendet. Dabei wurde das Robust-Maximum-Likelihood-Schätzverfahren (MLR) eingesetzt, aufgrund der 10-fachen Messwiederholung cluster-robuste Standardfehler berechnet und zur Beurteilung des CFA-Modellfits auf die robusten Varianten der Fitindizes CFI, RMSEA und SRMR zurückgegriffen (<xref ref-type="bibr" rid="r54">Savalei, 2018</xref>). Um sicherzustellen, dass für beide Messmodelle bei gegebener Anzahl von Beobachtungen trotz der Messwiederholungen innerhalb der Befragten unverzerrte Parameterschätzungen und Fit-Indizes der Messmodelle geschätzt würden, wurde für beide Messmodelle jeweils eine Monte-Carlo-Simulation für CFA (<xref ref-type="bibr" rid="r41">Muthén &amp; Muthén, 2002</xref>) mit 1000 Wiederholungen auf Basis der mutmaßlichsten Populationswerte für EGQ (<xref ref-type="bibr" rid="r11">Düvel et al., 2021</xref>) und DGA (Studie 1) gerechnet. Programmiercode und detaillierte Ergebnisse dieser Analyse sind im digitalen Anhang zu finden. Laut den Ergebnissen (vgl. digitaler Anhang) sind bei der gegebenen Stichprobenstruktur für alle Modellschätzer Coverage-Werte zwischen .93 und .96 sowie durchgehend eine Teststärke von 1 gegeben, die prognostizierten Schätzer für sämtliche beta-Koeffizienten und Standardfehler sind unter 2% verzerrt und die prognostizierte Streuung der zu erwartenden Modellfitindizes überschritt keinen der üblichen Cut-Off-Werte (<xref ref-type="bibr" rid="r21">Hu &amp; Bentler, 1999</xref>).</p>
<p>Auf den somit gültigen CFA-Ergebnissen aufbauend wurden für beide Instrumente Faktorreliabilitäten (<xref ref-type="bibr" rid="r39">McDonald, 1999</xref>) berechnet und regressionsbasiert empirische Faktorwerte für alle Beurteilungen der Teilnehmer*innen geschätzt. Außerdem wurden zu Vergleichszwecken auch einfache Mittelwertindizes für beide Konstrukte berechnet, da diese Operationalisierung in manchen Studien mit dem EGQ auch verwendet wird. Anschließend wurden bivariate Korrelationen der geschätzten Faktorwerte beider Instrumente sowie den Mittelwertindizes ermittelt. Ferner wurden auch für die Goldsmith-Musical-Sophistication-Index-Subskalen Perceptual Abilities und Musical Training die Mittelwertindizes berechnet. Zusätzlich wurde zu jeder Song-Beurteilung jeder Versuchsperson eine Kontrollvariable (personal_genre_liking) berechnet, welche das Präferenz-Rating der Versuchsperson für das jeweils in einem Trial dargebotene Genre enthält (ähnlich des <italic>Style Bias</italic> bei <xref ref-type="bibr" rid="r59">Senn et al. 2018</xref>, jedoch hier auf Basis der durch die discogs-Nutzer*innen kollektiv vergebenen Genrekategorien).</p>
<p>Zur Beantwortung der zweiten Forschungsfrage wurden anschließend zur Aufklärung der Varianz in den fünf Faktorvariablen und zwei Mittelwertindizes nach Zentrierung aller metrischen Variablen jeweils ein Linear Mixed Model (LMM) mit Hilfe von <italic>lmer</italic> (<xref ref-type="bibr" rid="r1">Bates et al., 2015</xref>) berechnet. Als einziger auf die Forschungsfrage abzielender Prädiktor ging die Genrezugehörigkeit des dargebotenen Stimulus als Nominalvariable mit orthogonaler Effektkontrastcodierung in jedes der Modelle ein. Bei dieser Form von a-priori Kontrasten wird der Mittelwert jeder durch einen nominalen Faktor gebildeten Messwertgruppen im Vergleich zum Gesamtmittelwert aller Gruppen geprüft. Dabei bleibt eine einzige Kategorie des nominalen Faktors unberücksichtigt und geht nur in den Vergleichsmittelwert ein, hierfür wählten wir das Genre Pop aufgrund seines tendenziell mehrdeutigen Charakters (<xref ref-type="bibr" rid="r40">Merlini, 2020</xref>). Ferner enthielt jedes Modell noch die sechs Kovariaten Alter, Perceptual Abilities, Musical Training, persönliche Hörintensität, persönliche Bewegungsintensität und personal genre liking. Als Clustervariable zur Berücksichtigung der Messwiederholungen in Form eines <italic>Random Intercept</italic> diente in den Modellen die Versuchspersonennummer. Aufgrund der unterschiedlichen Anzahl von Songs pro Genre wurden cluster-robuste Konfidenzintervalle berechnet und zusätzliche Simulationsstudien mit 1000 Wiederholungen für jedes der Modelle inklusive aller Kovariaten mit dem R-Paket <italic>simr</italic> (<xref ref-type="bibr" rid="r19">Green &amp; MacLeod, 2016</xref>) durchgeführt, um zu überprüfen, ob die Teststärke für die Prüfung der Effektkontraste trotz der schwankenden Beobachtungszahlen in den verschiedenen Genres vergleichbar war – hierfür wurden kleine Effekte in Höhe von ω<sup>2</sup> = .02 unterstellt (<xref ref-type="bibr" rid="r6">Cohen, 1992</xref>). Die Simulation ergab für sämtliche zu prüfenden Mittelwertsunterschiede der genrebezogenen Ratings zum Gesamtmittelwert eine erwartete Teststärke von im Mittel 100% und der untere Rand des Konfidenzintervalls lag zwischen .994 und .996 (R-Code und Ergebnisdokumentation im digitalen Anhang). Darüber hinaus ist anzumerken, dass laut allgemeiner Simulationsstudien zu LMMs Koeffizientenschätzungen und Signifikanztests für feste Effekte ab <italic>k</italic> = 30 Level-2-Einheiten nahezu unverzerrt sind, wobei die Anzahl der Messwiederholungen und der <italic>ICC</italic> demgegenüber kaum eine entscheidende Rolle spielen (<xref ref-type="bibr" rid="r32">Maas &amp; Hox, 2005</xref>).</p>
<p>Nach erfolgter initialer Schätzung wurde für jedes Modell mit Hilfe eines LRT-Tests geprüft, ob der Random Intercept tatsächlich signifikant zur Modellverbessung beitrug und ob die zusätzliche Modellierung von Random Slopes für die Genre-Effekte zu einer signifikanten Modellverbesserung führen würde. Für alle Modelle wurden anschließend <italic>ICC</italic> sowie marginales und konditionales <italic>R<sup>2</sup></italic> geschätzt und die Normalverteilung der Modellresiduen durch Inspektion von Quantil-Quantil-Plots sichergestellt. Schließlich wurden die Genre-Kontrastvariablen versuchsweise aus allen Modellen entfernt, um eine ΔR<sup>2</sup><sub>marg</sub> Schätzung für den Gesamtbeitrag der Genres zur Varianzaufklärung zu realisieren.</p></sec></sec>
<sec sec-type="other5"><title>Ergebnisse – Validierungsstudie (EGQ und DGA)</title>
<sec><title>Stichprobenstruktur</title>
<p>Bei der deskriptiven Analyse der Daten fiel auf, dass die zwei im Stimuluspool enthaltenen Reggae-Tracks jeweils weniger als drei Beurteilungen aufwiesen. Daher wurden diese aus der Stichprobe ausgeschlossen. Den resultierenden Datensatz bezeichnen wir als <italic>Pop-Groove-Ground-Truth-Dataset</italic> (PGGT). Er enthält <italic>n</italic> = 1775 gültige Beobachtungen, die von <italic>m</italic> = 178 Befragten stammen und ist online für Sekundäranalysen interessierter Kolleg*innen verfügbar. Die Befragten beurteilten <italic>k</italic> = 448 Popsong-Exzerpte, von denen ihnen 68% bekannt waren, auf den Erhebungsinstrumenten EGQ und DGA. Nach Genres aufgeschlüsselt liegen für Pop 376, für Country 215, für Electronic 275, für R‘n‘B 73, für HipHop 721, für Latin 21, und für Rock 94 Beurteilungen vor. Die Ungleichverteilung ergibt sich einerseits aus den Fallzahlen der Genres im Stimuluspool, andererseits aus der zufälligen Selektion der Tracks aus dem Pool während der Online-Befragung.</p></sec>
<sec><title>Güte der Messmodelle</title>
<p>Das geschätzte Messmodell des EGQ (<xref ref-type="fig" rid="f2">Abbildung 2</xref>) erreicht nur einen befriedigenden Fit (<italic>n</italic> = 1775, Χ<sup>2</sup> = 112.58, <italic>df</italic> = 8, <italic>p</italic> &lt; .001, <italic>CFI</italic> = .991, <italic>SRMR</italic> = .019, <italic>RMSEA</italic> = .082, 95% <italic>CI</italic> [.063, .103]) bei hervorragenden Faktorreliabilitäten (ω<sub>Urge</sub> = .90, ω<sub>Pleasure</sub> = .96), aber einer sehr hohen modellimplizierten Faktorinterkorrelation (β = .82, <italic>CI</italic><sub>Lower</sub> = .79 <italic>CI</italic><sub>Upper</sub> = .86).</p>
	
	<?figure f2?>
	
<p>Das Messmodell des DGA (<xref ref-type="fig" rid="f3">Abbildung 3</xref>) weist demgegenüber einen sehr guten Fit (Χ<sup>2</sup> = 394.86, <italic>df</italic> = 51, <italic>p</italic> &lt; .001, <italic>CFI</italic> = .971, <italic>SRMR</italic> = .041, <italic>RMSEA</italic> = .056, 95% <italic>CI</italic> [.047, .065]), sehr gute Reliabilitätswerte (ω<sub>Roll</sub> = .88, ω<sub>Drive</sub> = .82, ω<sub>Pulse</sub> = .86) und nur geringe modellimplizierte Faktorinterkorrelationen (β<sub>RD</sub> = 0, β<sub>PR</sub> = .12, β<sub>PD</sub> = -.37) auf.</p>

<?figure f3?>

</sec>
<sec><title>Bivariate Korrelation der Faktorwerte</title>
<p>Analog zu den modellimplizierten Faktorkorrelationen fielen auch die empirischen Korrelationen der beiden regressionsbasiert geschätzten Faktorwerte des EGQ mit <italic>r</italic> = .86 sehr hoch aus. Darüber hinaus zeigten sich ebenfalls hohe Korrelationen beider EGQ-Dimensionen mit dem Faktor Roll des DGA-Instruments. Die Mittelwertindizes des EGQ korrelierten mit 0.98 bzw. 1 mit den CFA-Konstruktvariablen (<xref ref-type="table" rid="t3">Tabelle 3</xref>).</p>
<table-wrap id="t3" position="anchor" orientation="portrait"><?pagebreak-before?>
<label>Tabelle 3</label><caption><title>Bivariate Korrelationen der in der Validierungsstudie verglichenen Konstruktvariablen</title></caption>
<table frame="hsides" rules="groups" style="compact-1">
<col width="16%" align="left"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<thead>
<tr>
<th valign="bottom">Variable</th>
	<th valign="bottom">EGQ: CFA<break/>Urge to move</th>
	<th valign="bottom">EGQ: CFA<break/>Pleasure </th>
	<th valign="bottom">EGQ: index<break/>Urge to move</th>
	<th valign="bottom">EGQ: index<break/>Pleasure </th>
	<th valign="bottom">DGA: CFA<break/>Roll</th>
	<th valign="bottom">DGA: CFA<break/>Drive </th>
	<th valign="bottom">DGA: CFA<break/>Pulse</th>
</tr>
</thead>
<tbody>
<tr>
<td>EGQ: CFA<break/>Urge to move</td>
<td>—</td>
<td> </td>
<td/>
<td/>
<td> </td>
<td> </td>
<td> </td>
</tr>
<tr>
<td>EGQ: CFA<break/>Pleasure </td>
<td align="char" char=".">.86</td>
<td>—</td>
<td/>
<td/>
<td> </td>
<td> </td>
<td> </td>
</tr>
<tr>
<td>EGQ: index<break/>Urge to move </td>
<td align="char" char=".">.98</td>
<td align="char" char=".">.80</td>
<td>—</td>
<td/>
<td/>
<td/>
<td/>
</tr>
<tr>
<td>EGQ: index<break/>Pleasure</td>
<td align="char" char=".">.84</td>
<td>1</td>
<td/>
<td>—</td>
<td/>
<td/>
<td/>
</tr>
<tr>
<td>DGA: CFA<break/>Roll</td>
<td align="char" char=".">.68</td>
<td align="char" char=".">.61</td>
<td align="char" char=".">.70</td>
<td>,60</td>
<td>—</td>
<td> </td>
<td> </td>
</tr>
<tr>
<td>DGA: CFA<break/>Drive</td>
<td align="char" char=".">-.11</td>
<td align="char" char=".">-.21</td>
<td align="char" char=".">-.08</td>
<td align="char" char=".">-.23</td>
<td align="char" char=".">-.00</td>
<td>—</td>
<td> </td>
</tr>
<tr>
<td>DGA: CFA<break/>Pulse </td>
<td align="char" char=".">.14</td>
<td align="char" char=".">.16</td>
<td align="char" char=".">.13</td>
<td align="char" char=".">.17</td>
<td align="char" char=".">.14</td>
<td align="char" char=".">-.43</td>
<td>—</td>
</tr>
</tbody>
</table>
</table-wrap></sec>
<sec><title>Unterschiede der Groove-Erfahrung bei Popmusik-Genres gemäß EGQ</title>
<p>Das LMM zum EGQ-Faktor Urge to move zeigt mit <italic>R</italic><sup>2</sup><sub>marg</sub> = .11 und <italic>R</italic><sup>2</sup><sub>cond</sub> = .35 eine gute Varianzaufklärung und einen <italic>ICC</italic> = .30, der auch zu signifikanter Verbesserung des Modells durch einen Random Intercept führte (<italic>LRT =</italic> 269.09, <italic>df =</italic> 1, <italic>p</italic> &lt; .001). Das Modell ließ sich durch Hinzunahme von Random Slopes nicht signifikant verbessern (<italic>LRT =</italic> 34.06, <italic>df =</italic> 27, <italic>p</italic> = .164). Die geprüften Effektkontraste (<xref ref-type="table" rid="t4">Tabelle 4</xref>) und Effektplots (<xref ref-type="fig" rid="f4">Abbildung 4</xref>) legen nahe, dass HipHop- und Country-Stücke gegenüber Titeln aus allen anderen Genres in signifikant unterdurchschnittlichem und Latin-Stücke in signifikant überdurchschnittlichem Maße Bewegungsdrang hervorriefen. Die Effektstärke der Gen<?glue?>res im Modell beträgt ungefähr Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .03. Zusätzliche negative signifikante Effekte auf den Urge to move gehen von der Häufigkeit des Musikhörens (β = -.09, <italic>t</italic>(1760) = -2.07, <italic>p</italic> = .038) und positive von der Bewegungshäufigkeit zu Musik im Alltag aus (β = .15, <italic>t</italic>(1760) = 3.25, <italic>p</italic> = .001). Außerdem gibt es einen hochsignifikanten Effekt der Vorliebe für das dargebotene Musik-Genre auf die Urge to move-Messung (β = .19, <italic>t</italic>(1760) = 7.56, <italic>p</italic> &lt; .001).</p>
<table-wrap id="t4" position="anchor" orientation="portrait">
<label>Tabelle 4</label><caption><title>Geschätzte LMM-Effektkontraste für EGQ Urge to move: Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
<table frame="hsides" rules="groups">
<col width="12%" align="left"/>
<col width="26%"/>
<col width="12%"/>
<col width="10%"/>
<col width="15%"/>
<col width="15%"/>
<col width="10%"/>
<thead>
<tr>
<th>Songgenre</th>
<th align="left">Vergleichswert</th>
<th>Differenz</th>
<th><italic>SE</italic></th>
<th>95% CI</th>
<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
<th><italic>p</italic></th>
</tr>
</thead>
<tbody>
<tr>
<td>Country</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.25</td>
<td align="char" char=".">0.06</td>
<td>[-0.37, -0.14]</td>
<td align="char" char=".">-4.35</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Electronic</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.06</td>
<td align="char" char=".">0.05</td>
<td>[-0.05, 0.16]</td>
<td align="char" char=".">1.08</td>
<td align="char" char=".">.281</td>
</tr>
<tr>
<td>R’n‘B</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.07</td>
<td align="char" char=".">0.09</td>
<td>[-0.24, 0.10]</td>
<td align="char" char=".">-0.84</td>
<td align="char" char=".">.402</td>
</tr>
<tr>
<td>HipHop</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.29</td>
<td align="char" char=".">0.04</td>
<td>[-0.37, -0.21]</td>
<td align="char" char=".">-6.87</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Latin</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.63</td>
<td align="char" char=".">0.15</td>
<td>[0.33, 0.93]</td>
<td align="char" char=".">4.1</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Rock</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.04</td>
<td align="char" char=".">0.08</td>
<td>[-0.11, 0.20]</td>
<td align="char" char=".">0.54</td>
<td align="char" char=".">.588</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten.</p>
</table-wrap-foot>
</table-wrap><fig id="f4" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 4</label><caption>
<title>Geschätzte Genremittelwerte des LMM zu EGQ: Urge to move (Fehlerbalken repräsentieren 95% Konfidenzintervalle)</title></caption><graphic xlink:href="jbdgm.217-f4" position="anchor" orientation="portrait"/></fig>
<p>Für das LMM zum EGQ-Faktor Pleasure führt ein Random Intercept zur Verbesserung (<italic>LRT =</italic> 266.38, <italic>df =</italic> 1, <italic>p</italic> &lt; .001), es ließ sich durch Hinzunahme von Random Slopes zwar formal noch einmal signifikant verbessern (<italic>LRT =</italic> 61.32, <italic>df =</italic> 27, <italic>p</italic> &lt; .001), allerdings nur durch Inkaufnahme eines <italic>singular fit</italic> (instabile Schätzung aufgrund zu weniger Beobachtungen). Daher blieben wir bei der Random Intercept Modellierung. Diese zeigt im Ergebnis mit <italic>R</italic><sup>2</sup><sub>marg</sub> = .14 und <italic>R</italic><sup>2</sup><sub>cond</sub> = .46 eine gute Varianzaufklärung (<italic>ICC</italic> = .32). Die geprüften Effektkontraste (<xref ref-type="table" rid="t5">Tabelle 5</xref>) und der Mittelwertplot (<xref ref-type="fig" rid="f5">Abbildung 5</xref>) zeigen, dass HipHop-Tracks gegenüber Titeln aus allen anderen Genres in signifikant unterdurchschnittlichem und Latin-Stücke in signifikant überdurchschnittlichem Grade gefielen. Die Effektstärke der Genres im Modell beträgt ungefähr Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .03. Zusätzliche starke positive Effekte auf Pleasure gehen von der Kontrollvariable personal_genre_liking aus (β = .26, <italic>t</italic>(1760) = 10.36, <italic>p</italic> &lt; .001). Die Ergebnisse zu den über Mittelwertindizes geschätzten EGQ-Dimensionen fallen bei aufgrund der höheren Messfehler lediglich leicht reduzierten Effektstärken inhaltlich nahezu identisch aus. Sie sind im Anhang in <xref ref-type="table" rid="t10">Tabellen 10</xref> und <xref ref-type="table" rid="t11">11</xref>, sowie <xref ref-type="fig" rid="f9">Abbildungen 9</xref> und <xref ref-type="fig" rid="f10">10</xref> zu finden.</p>
<table-wrap id="t5" position="anchor" orientation="portrait">
<label>Tabelle 5</label><caption><title>Geschätzte LMM-Effektkontraste für EGQ Pleasure: Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
<table frame="hsides" rules="groups">
<col width="13%" align="left"/>
<col width="27%"/>
<col width="14%"/>
<col width="9%"/>
<col width="14%"/>
<col width="14%"/>
<col width="9%"/>
<thead>
<tr>
<th>Songgenre</th>
<th align="left">Vergleichswert</th>
<th>Differenz</th>
<th><italic>SE</italic></th>
<th>95% CI</th>
<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
<th><italic>p</italic></th>
</tr>
</thead>
<tbody>
<tr>
<td>Country</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.05</td>
<td align="char" char=".">0.06</td>
<td>[-0.17, 0.06]</td>
<td align="char" char=".">-0.92</td>
<td align="char" char=".">.356</td>
</tr>
<tr>
<td>Electronic</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.05</td>
<td align="char" char=".">0.05</td>
<td>[-0.06, 0.15]</td>
<td align="char" char=".">0.85</td>
<td align="char" char=".">.394</td>
</tr>
<tr>
<td>R’n‘B</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.03</td>
<td align="char" char=".">0.09</td>
<td>[-0.14, 0.20]</td>
<td align="char" char=".">0.32</td>
<td align="char" char=".">.747</td>
</tr>
<tr>
<td>HipHop</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.36</td>
<td align="char" char=".">0.04</td>
<td>[-0.44, -0.28]</td>
<td align="char" char=".">-8.56</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Latin</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.4</td>
<td align="char" char=".">0.15</td>
<td>[0.10, 0.70]</td>
<td align="char" char=".">2.63</td>
<td align="char" char=".">.009</td>
</tr>
<tr>
<td>Rock</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.06</td>
<td align="char" char=".">0.08</td>
<td>[-0.10, 0.21]</td>
<td align="char" char=".">0.72</td>
<td align="char" char=".">.469</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten.</p>
</table-wrap-foot>
</table-wrap><fig id="f5" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 5</label><caption>
<title>Geschätzte Genremittelwerte des LMM zu EGQ: Pleasure (Fehlerbalken repräsentieren 95% Konfidenzintervalle)</title></caption><graphic xlink:href="jbdgm.217-f5" position="anchor" orientation="portrait"/></fig>
</sec>
<sec><title>Unterschiede der Groove-Erfahrung bei Popmusik-Genres gemäß DGA</title>
<p>Das LMM zum DGA-Faktor Roll zeigt mit <italic>R</italic><sup>2</sup><sub>marg</sub> = .09 und <italic>R</italic><sup>2</sup><sub>cond</sub> = .24 eine gute Varianzaufklärung bei einem <italic>ICC</italic> = .17 und signifikanter Modellverbesserung durch einen Random Intercept (<italic>LRT</italic> = 121.88, <italic>df</italic> = 1, <italic>p</italic> &lt; .001). Das Modell ließ sich durch Hinzunahme von Random Slopes nicht signifikant verbessern (<italic>LRT</italic> = 19.68, <italic>df</italic> = 27, <italic>p</italic> = .844). Die geprüften Effektkontraste (<xref ref-type="table" rid="t6">Tabelle 6</xref>) und der Mittelwertplot (<xref ref-type="fig" rid="f6">Abbildung 6</xref>) demonstrieren, dass HipHop-, R’n’B- und Country-Stücke gegenüber Songs aus allen anderen Genres signifikant unterdurchschnittliche Roll-Empfindungen hervorriefen, während Latin-, und Electronic-Stücke signifikant überdurchschnittliche Faktorwerte generierten. Die Effektstärke der Genres im Modell beträgt ungefähr Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .05. Zusätzliche signifikante positive Effekte auf Roll gehen von den Kontrollvariablen Musical Training (β = -.09, <italic>t</italic>(1760) = -2.10, <italic>p</italic> = .036) und Personal Genre Liking (β = .15, <italic>t</italic>(1760) = 5.78, <italic>p</italic> &lt; .01) aus.</p>
<table-wrap id="t6" position="anchor" orientation="portrait">
<label>Tabelle 6</label><caption><title>Geschätzte LMM-Effektkontraste für DGA Roll: Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
<table frame="hsides" rules="groups">
<col width="12%" align="left"/>
<col width="29%"/>
<col width="12%"/>
<col width="10%"/>
<col width="12%"/>
<col width="15%"/>
<col width="10%"/>
<thead>
<tr>
<th>Songgenre</th>
<th align="left">Vergleichswert</th>
<th>Differenz</th>
<th><italic>SE</italic></th>
<th>95% CI</th>
<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
<th><italic>p</italic></th>
</tr>
</thead>
<tbody>
<tr>
<td>Country</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.13</td>
<td align="char" char=".">0.06</td>
<td>[-0.25, -0.01]</td>
<td align="char" char=".">-2.17</td>
<td align="char" char=".">.030</td>
</tr>
<tr>
<td>Electronic</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.12</td>
<td align="char" char=".">0.06</td>
<td>[0.01, 0.23]</td>
<td align="char" char=".">2.17</td>
<td align="char" char=".">.030</td>
</tr>
<tr>
<td>R’n‘B</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.24</td>
<td align="char" char=".">0.09</td>
<td>[-0.42, -0.06]</td>
<td align="char" char=".">-2.59</td>
<td align="char" char=".">.010</td>
</tr>
<tr>
<td>HipHop</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.39</td>
<td align="char" char=".">0.04</td>
<td>[-0.48, -0.30]</td>
<td align="char" char=".">-8.8</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Latin</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.55</td>
<td align="char" char=".">0.16</td>
<td>[0.23, 0.86]</td>
<td align="char" char=".">3.4</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Rock</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.18</td>
<td align="char" char=".">0.08</td>
<td>[0.02, 0.35]</td>
<td align="char" char=".">2.18</td>
<td align="char" char=".">.029</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten.</p>
</table-wrap-foot>
</table-wrap><fig id="f6" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 6</label><caption>
<title>Geschätzte Genremittelwerte des LMM zu DGA: Roll (Fehlerbalken repräsentieren 95% Konfidenzintervalle)</title></caption><graphic xlink:href="jbdgm.217-f6" position="anchor" orientation="portrait"/></fig>
<p>Das LMM zum DGA-Faktor Drive zeigt mit <italic>R</italic><sup>2</sup><sub>marg</sub> = .10 und <italic>R</italic><sup>2</sup><sub>cond</sub> = .43 eine gute Varianzaufklärung bei einem <italic>ICC</italic> = .32 und signifikantem Random Intercept (<italic>LRT =</italic> 453.45, <italic>df =</italic> 1, <italic>p</italic> &lt; .001). Das Modell ließ sich durch Hinzunahme von Random Slopes nicht signifikant verbessern (<italic>LRT =</italic> 39.51, <italic>df =</italic> 27, <italic>p</italic> = .057). Die geprüften Effektkontraste (<xref ref-type="table" rid="t7">Tabelle 7</xref>) und der Mittelwertplot (<xref ref-type="fig" rid="f7">Abbildung 7</xref>) zeigen, dass R’n’B- und Country-Stücke gegenüber Songs aus allen anderen Genres signifikant unterdurchschnittliche Drive-Empfindungen evozierten, während HipHop- und Electronic-Stücke signifikant überdurchschnittliche Faktorwerte auf dieser Dimension haben. Die Effektstärke der Genres im Modell beträgt ungefähr Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .09. Keine der Kontrollvariablen übt einen direkten signifikanten Einfluss auf diese Faktordimension aus.</p>
<table-wrap id="t7" position="anchor" orientation="portrait"><?pagebreak-before?>
<label>Tabelle 7</label><caption><title>Geschätzte LMM-Effektkontraste für DGA Drive: Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
<table frame="hsides" rules="groups">
<col width="12%" align="left"/>
<col width="29%"/>
<col width="12%"/>
<col width="9%"/>
<col width="13%"/>
<col width="15%"/>
<col width="10%"/>
<thead>
<tr>
<th>Songgenre</th>
<th align="left">Vergleichswert</th>
<th>Differenz</th>
<th><italic>SE</italic></th>
<th>95% CI</th>
<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
<th><italic>p</italic></th>
</tr>
</thead>
<tbody>
<tr>
<td>Country</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.35</td>
<td align="char" char=".">0.05</td>
<td>[-0.45, -0.25]</td>
<td align="char" char=".">-6.63</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Electronic</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.15</td>
<td align="char" char=".">0.05</td>
<td>[0.06, 0.25]</td>
<td align="char" char=".">3.19</td>
<td align="char" char=".">.001</td>
</tr>
<tr>
<td>R’n‘B</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.34</td>
<td align="char" char=".">0.08</td>
<td>[-0.49, -0.19]</td>
<td align="char" char=".">-4.33</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>HipHop</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.43</td>
<td align="char" char=".">0.04</td>
<td>[0.36, 0.51]</td>
<td align="char" char=".">11.37</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Latin</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.03</td>
<td align="char" char=".">0.14</td>
<td>[-0.25, 0.30]</td>
<td align="char" char=".">0.18</td>
<td align="char" char=".">.855</td>
</tr>
<tr>
<td>Rock</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.1</td>
<td align="char" char=".">0.07</td>
<td>[-0.04, 0.24]</td>
<td align="char" char=".">1.35</td>
<td align="char" char=".">.179</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten</p>
</table-wrap-foot>
</table-wrap>
	<fig id="f7" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 7</label><caption>
<title>Geschätzte Genremittelwerte des LMM zu DGA Drive (Fehlerbalken sind Fehlerbalken repräsentieren 95% Konfidenzintervalle)</title></caption><graphic xlink:href="jbdgm.217-f7" position="anchor" orientation="portrait"/></fig>
<p>Das LMM zum DGA-Faktor Pulse zeigt mit <italic>R</italic><sup>2</sup><sub>marg</sub> = .07 und <italic>R</italic><sup>2</sup><sub>cond</sub> = .37 eine gute Varianzaufklärung bei einem <italic>ICC</italic> = .34 und signifikantem Random Intercept (<italic>LRT =</italic> 373.27, <italic>df =</italic> 1, <italic>p</italic> &lt; .001). Das Modell ließ sich durch Hinzunahme von Random Slopes nicht signifikant verbessern (<italic>LRT =</italic> 39.92, <italic>df =</italic> 27, <italic>p</italic> = .052). Die geprüften Effektkontraste (<xref ref-type="table" rid="t8">Tabelle 8</xref>) und der Mittelwertplot (<xref ref-type="fig" rid="f8">Abbildung 8</xref>) zeigen, dass HipHop-Tracks gegenüber Songs aus allen anderen Genres signifikant unterdurchschnittliche Pulse-Empfindungen evozierten, während Country-Stücke signifikant überdurchschnittliche Faktorwerte auf dieser Dimension aufweisen. Die Effektstärke der Genres im Modell beträgt ungefähr Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .03. Keine der Kontrollvariablen übt in diesem Fall einen direkten signifikanten Einfluss aus.</p>
<table-wrap id="t8" position="anchor" orientation="portrait">
<label>Tabelle 8</label><caption><title>Geschätzte LMM-Effektkontraste für DGA Pulse: Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
<table frame="hsides" rules="groups">
<col width="12%" align="left"/>
<col width="29%"/>
<col width="12%"/>
<col width="10%"/>
<col width="13%"/>
<col width="14%"/>
<col width="10%"/>
<thead>
<tr>
<th>Songgenre</th>
<th align="left">Vergleichswert</th>
<th>Differenz</th>
<th><italic>SE</italic></th>
<th>95% CI</th>
<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
<th><italic>p</italic></th>
</tr>
</thead>
<tbody>
<tr>
<td>Country</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.25</td>
<td align="char" char=".">0.06</td>
<td>[0.14, 0.36]</td>
<td align="char" char=".">4.52</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Electronic</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.08</td>
<td align="char" char=".">0.05</td>
<td>[-0.18, 0.02]</td>
<td align="char" char=".">-1.59</td>
<td align="char" char=".">.112</td>
</tr>
<tr>
<td>R’n‘B</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.02</td>
<td align="char" char=".">0.08</td>
<td>[-0.14, 0.19]</td>
<td align="char" char=".">0.26</td>
<td align="char" char=".">.793</td>
</tr>
<tr>
<td>HipHop</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.23</td>
<td align="char" char=".">0.04</td>
<td>[-0.31, -0.15]</td>
<td align="char" char=".">-5.65</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Latin</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.07</td>
<td align="char" char=".">0.15</td>
<td>[-0.21, 0.36]</td>
<td align="char" char=".">0.51</td>
<td align="char" char=".">.613</td>
</tr>
<tr>
<td>Rock</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.05</td>
<td align="char" char=".">0.08</td>
<td>[-0.20, 0.10]</td>
<td align="char" char=".">-0.71</td>
<td align="char" char=".">.477</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten.</p>
</table-wrap-foot>
</table-wrap><fig id="f8" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 8</label><caption>
<title>Geschätzte Genremittelwerte des LMM zu DGA: Pulse (Fehlerbalken sind Konfidenzintervalle)</title></caption><graphic xlink:href="jbdgm.217-f8" position="anchor" orientation="portrait"/></fig></sec></sec>
<sec sec-type="other6"><title>Diskussion</title>
<sec><title>Ergebnisse der Entwicklungsstudie des DGA</title>
<p>Die in diesem Artikel dargestellte erste Teilstudie lieferte als Ergebnis eine schlüssige Faktorlösung zu den Dimensionen der Groove-Affordanz, die aufgrund der Verwendung strengerer Verfahren zur Faktorenselektion deutlich sparsamer ausfällt als die ursprüngliche Analyse derselben Daten von <xref ref-type="bibr" rid="r47">Pfleiderer (2010)</xref>. Das resultierende Messinstrument in Form eines validierten deutschsprachigen Fragebogens aus zwölf Adjektiv-Items liefert eine einfache Methode, um mit Roll, Drive und Pulse drei grundlegend verschiedene Dimensionen rhythmischer Angebotsstrukturen im Sinne von Bewegungsempfindungen beim Hören von populärer Musik per Fragebogen zu messen. Semantisch weist das Ergebnis eine gewisse Überlappung mit den stärksten drei von <xref ref-type="bibr" rid="r33">Madison (2006)</xref> gewonnen Groove-Faktoren (Swing, Groove, Regularity) sowie mit den von <xref ref-type="bibr" rid="r62">Senn, Bechtold, Hoesl, et al. (2023)</xref> als Vorbedingung für Urge to move modellierten Konstrukten Temporal Regularity und Energetic Arrousal auf (vgl. Diskussion weiter unten). Neben den guten Fit- und Reliabilitätswerten weist dies zusätzlich auf gute Inhaltsvalidität des DGA-Instruments in Bezug auf seine Zielsetzung hin, die wichtigsten Varianten beim Musikhören ausgelöster Bewegungsempfindungen besser differenzieren zu können. Einschränkend ist jedoch anzumerken, dass bei der Bildung dieses Datensatzes nur eine relativ kleine Musikauswahl und die Ratings weniger, eher musikaffiner Hörer*innen zurückgegriffen wurde. In Zukunft wäre es insofern sinnvoll und wichtig, das Vorgehen noch mit einer größeren Anzahl Hörer*innen und mehr und diverseren Musikstücken zu wiederholen, und zugleich zu prüfen, ob Groove-Affordanzen gegebenenfalls sogar noch weitere Dimensionen aufweisen.</p></sec>
<sec><title>Ergebnisse der Validierungsstudie (EGQ und DGA)</title>
<p>Die Ergebnisse der zweiten Teilstudie zeigen im Anschluss, dass sich beide untersuchten Fragebögen, der Experience of Groove Questionnaire in der deutschen Version und der neu entwickelte DGA-Fragebogen, prinzipiell erfolgreich auf eine große Auswahl aktueller Popularmusik und eine größere Schneeball-Stichprobe von Laien-Hörer*innen anwenden lassen. Für den EGQ wurde trotz einer sehr großen Stichprobe nur ein befriedigender, für den DGA ein sehr guter Modellfit sowie in beiden Modellen sehr gute Faktorreliabilitäten erzielt. Allerdings verletzt die vom CFA-Modell implizierte Korrelation der beiden Faktoren des EGQ substanziell heute übliche Kriterien für Diskriminanzvalidität (<xref ref-type="bibr" rid="r51">Rönkkö &amp; Cho, 2022</xref>). Weil beide Faktoren bereits im Messmodell zu stark miteinander korrelieren, können sie messtheoretisch kaum noch als distinkte Konstrukte betrachten werden (<xref ref-type="bibr" rid="r38">McDonald, 1985</xref>), was dem selbst formulierten Anspruch des englischsprachigen Original-Messinstruments (<xref ref-type="bibr" rid="r61">Senn et al., 2020</xref>) zuwiderläuft, theoretisch und empirisch unabhängige Aspekte messen zu wollen.</p>
<p>In Bezug auf die Kriteriumsvalidität der beiden Instrumente ließen sich ferner die von <xref ref-type="bibr" rid="r22">Janata et al. (2012)</xref> und <xref ref-type="bibr" rid="r60">Senn et al. (2021)</xref> gefundenen Ergebnisse in Bezug auf Groove-Intensitäten unterschiedlicher Genres nicht wiederfinden: Weder erlebten die Hörer*innen in der vorliegenden Studie bei dargebotenen HipHop- oder R’n’B-Stücken stärkere Urge to move-Erfahrungen als bei Titeln aus anderen Genres, noch generierten die gehörten Rock-Stücke geringere Empfindungen bezüglich dieses Konstrukts. Stattdessen wurde von den Angehörigen der vorliegenden, im Gegensatz zu den Vergleichsstudien etwa zehn Jahre älteren Stichprobe vor allem Titel aus dem Genre Latin als überdurchschnittlich groovig empfunden, während umgekehrt HipHop-Titel als vergleichsweise wenig bewegungsanregend beurteilt wurden. Sehr ähnliche Messergebnisse fanden sich, bedingt durch die hohe Korrelation der beiden Faktoren kaum verwunderlich, in Bezug auf den zweiten EGQ-Faktor Pleasure und werden darum hier nicht weiter diskutiert. Die ermittelten Genreunterschiede fielen beim EGQ insgesamt vergleichsweise klein aus (jeweils Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .03).</p>
<p>Vor dem Hintergrund der in der Einführung diskutierten möglichen Konfundierung des erfragten Bewegungsimpulses mit Gefallen, die sich in signifikanten Effekten von Genrevorlieben auf die Messung hier auch empirisch mittels der Kovariate Genre Liking belegen ließ, lässt sich vermuten, dass diese Divergenzen auf unterschiedliche musikalische Geschmäcker der hauptsächlich befragten Geburtskohorte zurückzuführen sein könnten: Wer sich von Musikstil und Künstler*innen nicht angesprochen fühlt, wird auch deutlich weniger Urge to move empfinden.</p>
<p>Ein gegenüber den EGQ-Ergebnissen differenzierteres Bild ergaben die Messungen mit dem in dieser Arbeit entwickelten neuen DGA-Instrument: Die Messergebnisse zum DGA-Faktor Roll waren einerseits inhaltlich ziemlich ähnlich zu denen des EGQ-Faktors Urge to move (höhere Werte für Latin, niedrigere Werte für HipHop), wiesen dabei jedoch eine höhere Effektstärke auf (Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .05) und zeigten sich gleichzeitig empirisch deutlich weniger anfällig für eine Beeinflussung durch personenspezifische Variablen.</p>
<p>Ganz neue und mit bisherigen Studien kaum vergleichbare Messergebnisse zeigten sich beim DGA-Faktor Drive: Diese Facette von musikbedingten Bewegungsimpulsen erzeugte in unserer Studie die in Relation stärksten Unterschiede zwischen den Genres (Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .10) und wurde von den Befragten vor allem den Stilen HipHop und Electronic überdurchschnittlich stark zugerechnet, während sie bei R’n’B- und Country-Stücken als unterdurchschnittlich empfunden wurde. Dies entspricht zumindest auch anekdotisch den Empfindungen, die oftmals von Hörer*innen jener Genres berichtet werden. Am schwächsten fielen die empfundenen Genre-Unterschiede in Bezug auf den DGA-Faktor Pulse aus (Δ<italic>R</italic><sup>2</sup><sub>marg</sub> = .03). Dennoch ließen sich auch diese statistisch belegen: So wurde eine pulsierende Bewegung überdurchschnittlich oft beim Hören von Country-Songs empfunden und unterdurchschnittlich oft bei HipHop-Tracks. Die Interpretation ist hier etwas schwieriger – allerdings scheint es uns durchaus plausibel, das Country-Songs aufgrund ihrer eingängigen rhythmischen Struktur, die typischerweise nicht auf Synkopen, sondern auf stetig pulsierende Wiederholungen setzt, eine solche Bewegungsempfindung hervorbringen können.</p></sec></sec>
<sec sec-type="other7"><title>Allgemeine Diskussion</title>
<p>Mit dem DGA ist es uns gelungen, ein zum EGQ inhaltlich komplementäres Messinstrument zu entwickeln, welches jedoch zugleich konzeptionell eine grundlegend andere Zielsetzung verfolgt. Zwar kann die mit dem Begriff Groove assoziierte inhaltliche Facette des Bewegungsimpulses prinzipiell mit dem EGQ erfolgreich gemessen werden. Allerdings lässt dessen auch in unserer Erprobung aufscheinende inhaltliche Konfundierung mit Gefallen aus unserer Sicht die Erhebung des zweiten Faktors überflüssig erscheinen und stellt die konkrete Operationalisierung insgesamt in Frage. Dies wird in jüngeren Arbeiten zunehmend auch reflektiert. <xref ref-type="bibr" rid="r64">Senn et al. (2024)</xref> etwa scheinen Abstrahleffekte als ursächlich zu vermuten und ließen darum bei der Beurteilung von Drum-Stimuli die beiden Itemblöcke nur noch mit zeitlichem Abstand ausfüllen – ob dies das Problem tatsächlich auch bei der Anwendung auf größere Korpora populärer Musik lösen wird, bleibt jedoch abzuwarten. Wir raten daher Forscher*innen, welche Fragebögen in der Groove-Forschung einsetzen, bis dahin mindestens zur zusätzlichen Verwendung des DGA, der – wie hier demonstriert – nicht so anfällig für den Einfluss von Gefallen bei der Messung ist. Außerdem liefert er zusätzliche unabhängige Messwerte für musikalisch induzierte Bewegungsempfindungen, die vom EGQ gar nicht erfasst werden, aber in Teilen der maßgeblichen Literatur, z. B. gerade auch bei qualitativ arbeitenden Befragungsstudien (<xref ref-type="bibr" rid="r20">Hosken 2020</xref>, <xref ref-type="bibr" rid="r2">Bechtold et al. 2023</xref>) oder in der phänomenologisch ausgerichteten Monograpie von <xref ref-type="bibr" rid="r49">Roholt (2014)</xref>, thematisiert werden.</p>
<p>In unserem Theoriemodell werden durch Musik ausgelöste Bewegungsempfindungen als Affordanzen, also subjektiv wahrgenommene Handlungsoptionen konzipiert, die erst bei hinreichender Expertise, situativer Passung und Sympathie gegenüber Musik und Künstler*innen zu einer Enaktierung von Groove und damit zur Empfindung eines körperlichen Bewegungsimpulses (Urge to move) führen. In ähnlicher Weise wird dies auch in zwei neueren Arbeiten von <xref ref-type="bibr" rid="r62">Senn, Bechtold, Hoesl et al. (2023)</xref> und <xref ref-type="bibr" rid="r63">Senn, Bechtold, Jerjen et al. (2023)</xref> postuliert und umgesetzt, welche die Wahrnehmung von Temporal Regularity und Energetic Arousal erfolgreich empirisch als Vorfaktoren für den empfundenen Urge to move belegten, den wiederum die Autoren daher inzwischen als „late response in a sequence of cognitive processes leading to body movement“ (<xref ref-type="bibr" rid="r63">Senn, Bechtold, Jerjen, et al. 2023</xref>, S. 3) verstehen. Diese beiden Konstrukte weisen semantisch eine gewisse Verwandtschaft zu den von uns operationalisierten Faktoren Pulse, der Empfindung einer monoton pulsierenden rhythmischen Bewegung, und Drive, der Empfindung, durch den Rhythmus angetrieben zu werden, auf. Zusätzlich können wir aber mit der vorliegenden Arbeit zeigen, dass insbesondere Roll, die Empfindung rollender, schwungvoller Bewegungen, welche typisch für Latin Music zu sein scheint, einen weiteren wichtigen Typ von Bewegungsimpulsen darstellen dürfte. Insofern sehen wir unsere vorliegenden Ergebnisse keineswegs im Widerspruch zum Konstrukt Urge to move und damit verbundener Forschung mit dem EGQ, sondern eher als produktive Ergänzung. Ob man Aspekte der Bewegungsinduktion beim Hören, die nicht unbedingt als angenehm empfunden werden und nicht unbedingt zu einem Urge to move führen, konzeptionell als Teil der Groove-Erfahrung verstehen und analysieren möchte, wird von Forscher*innen künftig auf Basis der zu untersuchenden Forschungsfrage, des untersuchten Korpus und des theoretischen Zugangs zum Thema Groove zu entscheiden sein. Wir geben noch einmal zu bedenken, dass auch alltagsanekdotisch das körperliche Erleben von Rhythmus und Entrainment-Phänomenen weder immer mit Bewegungslust noch mit Gefallen einhergehen muss, sondern durchaus auch negative, verstörende Gefühle umfassen kann, die jedoch wie alle vermeintlich ‚negativen‘ ästhetischen Erfahrungen ebenso als wertvoll und sinnstiftend empfunden werden können (<xref ref-type="bibr" rid="r13">Eden, 2020</xref>).</p>
<sec><title>Limitationen</title>
<p>Eine bereits erwähnte Limitation der dargestellten Entwicklungsstudie liegt in der sehr selektiven Auswahl von musikalischen Stimuli und Befragten, wodurch keineswegs auszuschließen ist, dass es womöglich noch mehr und andere Dimensionen der Groove-Affordanzen zu entdecken gäbe, als die drei von uns identifizierten.</p>
<p>Als Limitation der Validierungsstudie ist zu bedenken, dass die Genre-Zuordnungen von Songs bei Discogs wohlmöglich nicht hinreichend empirisch valide und reliabel sind, da sie eine <italic>Folksonomy</italic> bilden, also ähnlich wie Wikipedia-Einträge unsystematisch von verschiedenen Usern nach dem Mehrheitsprinzip vorgenommen werden. Eine stichprobenartige Überprüfung durch die Autoren ließ die vorgenommenen Kategorisierungen jedoch im Kern plausibel erscheinen. Grundsätzlich liegt ein Problem von populärmusikalischen Genrebezeichnungen darin, dass sie historisch veränderliche soziale Konstrukte sind, die nicht nur auf musikalische Eigenschaften, sondern auch auf Hervorbringungs- und Rezeptionsmilieus abheben (<xref ref-type="bibr" rid="r40">Merlini, 2020</xref>). Darunter leiden allerdings auch die vergleichbaren Studien von <xref ref-type="bibr" rid="r22">Janata et al. (2012)</xref> und <xref ref-type="bibr" rid="r60">Senn et al. (2021)</xref>. Ferner beschränkten wir uns bei der Stimulusauswahl in der Validierungsstudie vorrangig auf aktuelle und vor allem in den USA kommerziell erfolgreiche Popmusik der letzten Dekade, was letztlich auch die Vergleichbarkeit mit den beiden eben genannten Studien einschränkt – dabei mischen sich ganz unterschiedliche rhythmische Ausdrucksmittel und deren Intensitätsstärken innerhalb der dargebotenen Musikgenres. Wir glauben zwar nicht, dass die hier gewonnenen Ergebnisse zu Genreunterschieden den Anspruch erheben können, in irgendeiner Weise allgemeingültig zu sein. Wir verstehen sie jedoch, wie in der Einleitung dargelegt, als adäquates Mittel einer vergleichenden Prüfung der Diskriminationsfähigkeit und Kriteriumsvalidität beider Instrumente. Diese Einschränkung gilt allein schon deshalb, weil für einige Genres wie Latin einfach zu wenig Beobachtungen im Datensatz vorliegen. Die Ergebnisse zu den ebenfalls vergleichend untersuchten psychometrischen Fragen (Modellpassung, Reliabilität, Diskriminanzvalidität) werden unseres Erachtens allerdings von diesem Problem nicht berührt, da die Instrumente sich invariant gegenüber der konkreten Stimulusauswahl verhalten sollten, wenn sie den Anspruch erheben wollen, prinzipiell zur differentiellen Messung der Wahrnehmung von Rhythmusphänomenen in aktueller populärer Musik geeignet zu sein.</p></sec>
<sec><title>Ausblick</title>
<p>Insgesamt steht ungeachtet der dargestellten Ergebnisse eine überzeugende vergleichende Überprüfung der Kriteriumsvalidität beider in der vorliegenden Arbeit vorgestellten und analysierten deutschsprachigen Instrumente noch aus. Dazu sollten in Zukunft stärker kontrollierte Stimulussets, etwa aus Drum-Patterns, in eher experimentellen Studiendesigns eingesetzt werden, um zu untersuchen, welche spezifischen rhythmischen Gestaltungsmittel die unterschiedlichen durch das DGA gemessenen Bewegungsempfindungen jeweils hervorrufen. Ungeachtet dessen ließe sich ferner mit Recht kritisieren, dass die gewählte Methode der standardisierten Befragung gerade in Bezug auf den von uns theoretisch unterstellten enaktiven Charakter des Groove-Phänomens nicht optimal ist. Vordergründig günstiger wären daher unter Umständen Ansätze, musikalische Bewegungsinduktion über die Aufzeichnung von Körperbewegungen (<xref ref-type="bibr" rid="r8">Dotov et al., 2021</xref>) oder Psychophysiologie (<xref ref-type="bibr" rid="r4">Bowling et al., 2019</xref>) zu erheben. Umgekehrt können aber diese Verfahren ihre Validität nicht belegen, wenn nicht parallel auch die begleitenden subjektiven Empfindungen per Fragebogen erhoben werden. Ein vergleichbares Dilemma kennen wir bereits aus der Forschung zu Musik und Emotionen (<xref ref-type="bibr" rid="r26">Juslin &amp; Sloboda, 2011</xref>). Ferner erscheint uns die Fragebogenmethode auch als alternativlos, wenn die gewonnenen Ergebnisse etwa mit Eigenschaften der wiedergegebenen Musikstücke mittels MIR-Verfahren in Verbindung gebracht werden sollen, wie etwa bei <xref ref-type="bibr" rid="r12">Düvel et al. (2022)</xref>. Abschließend möchten wir noch einmal unser Argument bekräftigen, dass wegen der starken Erfahrungsgebundenheit und darum anzunehmenden sozialen Differenzierung von Rhythmuswahrnehmung neben Experimenten auch weiterhin Studien mit großen Korpora populärer Musik und entsprechenden Befragtenstichproben benötigt werden, die nur mit einem einfach zu handhabenden Fragebogen zu bewältigen sind. Nicht zuletzt auch aus diesem Grund möchten wir alle an Groove-Forschung Interessierten einladen, dabei mitzuhelfen, die gewonnene Datenbasis des Pop-Groove-Ground-Truth-Dataset in kollektiver Arbeit zu erweitern, und stellen dafür unseren bestehenden Datensatz und die im Code befindlichen Methoden zum Umgang mit komplexen nicht-ausbalancierten Stichproben interessierten Kolleg*innen zur Weiterverwendung online zur Verfügung.</p>


</sec></sec>
</body>
	
<back>
	

		<fn-group content-type="author-contribution">
			<fn fn-type="con">
				<p>Steffen Lepa – Konzeption | Methodik | Coding | Formale Analyse | Visualisierung | Supervision | Verfassen – Originalentwurf Entwicklungsstudie | Schreiben – Überarbeitung &amp; Redaktion | Projektadministration. Luzie Ahrens – Konzeption | Methodik | Untersuchung | Coding | Datenkuratierung | Formale Analyse | Visualisierung | Verfassen – Originalentwurf Validierungsstudie | Visualisierung. Martin Pfleiderer – Konzeption | Untersuchung | Datenkuratierung | Schreiben – Überarbeitung &amp; Redaktion.</p>
			</fn>
		</fn-group>
		
	
	<sec sec-type="ethics-statement">
		<title>Ethics Statement</title>
		<p>Die dargestellte Entwicklungsstudie ist eine Sekundäranalyse bereits publizierter Daten (<xref ref-type="bibr" rid="r47">Pfleiderer, 2010</xref>). Der empirische Teil der dargestellte Validierungsstudie wurde im Rahmen einer Masterarbeit an der Fakultät I für Geistes- und Bildungswissenschaften der Technischen Universität Berlin in Übereinstimmung mit den einschlägigen institutionellen und nationalen Richtlinien und Vorschriften (<xref ref-type="bibr" rid="r16">Föderation Deutscher Psychologenvereinigungen, 2022</xref>) sowie im Einklang mit den Prinzipien der Deklaration von Helsinki durchgeführt. Eine formale Genehmigung der Studie durch die Ethikkommission der Fakultät war nicht erforderlich, da alle geltenden Vorschriften für Befragungen im Rahmen von Masterarbeiten an der Fakultät eingehalten wurden. Alle Teilnehmenden gaben ihre schriftliche Einwilligung und wurden darüber informiert, dass sie das Recht haben, ihre Teilnahme an der Studie jederzeit ohne negative Konsequenzen abzubrechen.</p>
	</sec>
	
	
<app-group>
<app id="app"><title>Anhang</title>
	
<table-wrap id="t9" position="anchor" orientation="portrait">
<label>Tabelle 9</label><caption><title>Oblimin-rotierte Ladungsmatrix der EFA bei der Entwicklung des DGA</title></caption>
<table frame="hsides" rules="groups" style="compact-1">
<col width="27%" align="left"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<col width="12%"/>
<col width="25%"/>
<thead>
<tr>
<th rowspan="2" scope="rowgroup" valign="bottom" align="left">Itemtext</th>
<th colspan="4" scope="colgroup">Faktor<hr/></th>
	<th rowspan="2" valign="bottom">1-Kommunalität</th>
</tr>
<tr>
<th scope="colgroup">1</th>
<th>2</th>
<th>3</th>
<th>4</th>
</tr>
</thead>
<tbody>
<tr>
<td>aggressiv</td>
<td align="char" char=".">0.894</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.219</td>
</tr>
<tr>
<td>wild</td>
<td align="char" char=".">0.872</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.166</td>
</tr>
<tr>
<td>gehetzt</td>
<td align="char" char=".">0.828</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.330</td>
</tr>
<tr>
<td>weich</td>
<td align="char" char=".">-0.806</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.326</td>
</tr>
<tr>
<td>heftig</td>
<td align="char" char=".">0.801</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.328</td>
</tr>
<tr>
<td>energiegeladen</td>
<td align="char" char=".">0.799</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.202</td>
</tr>
<tr>
<td>ruhelos</td>
<td align="char" char=".">0.790</td>
<td/>
<td/>
<td align="char" char=".">-0.320</td>
<td align="char" char=".">0.350</td>
</tr>
<tr>
<td>beschleunigend</td>
<td align="char" char=".">0.783</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.318</td>
</tr>
<tr>
<td>ruhig</td>
<td align="char" char=".">-0.763</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.355</td>
</tr>
<tr>
<td>mechanisch</td>
<td align="char" char=".">0.749</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.440</td>
</tr>
<tr>
<td>schnell</td>
<td align="char" char=".">0.738</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.400</td>
</tr>
<tr>
<td>flackernd</td>
<td align="char" char=".">0.732</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.432</td>
</tr>
<tr>
<td>hart</td>
<td align="char" char=".">0.699</td>
<td/>
<td align="char" char=".">0.304</td>
<td/>
<td align="char" char=".">0.286</td>
</tr>
<tr>
<td>flexibel</td>
<td align="char" char=".">-0.698</td>
<td align="char" char=".">0.319</td>
<td/>
<td/>
<td align="char" char=".">0.486</td>
</tr>
<tr>
<td>schaukelnd</td>
<td align="char" char=".">-0.694</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.413</td>
</tr>
<tr>
<td>kraftvoll</td>
<td align="char" char=".">0.690</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.323</td>
</tr>
<tr>
<td>träge</td>
<td align="char" char=".">-0.668</td>
<td/>
<td/>
<td align="char" char=".">-0.331</td>
<td align="char" char=".">0.217</td>
</tr>
<tr>
<td>fließend</td>
<td align="char" char=".">-0.658</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.539</td>
</tr>
<tr>
<td>aufregend</td>
<td align="char" char=".">0.648</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.371</td>
</tr>
<tr>
<td>gehend</td>
<td align="char" char=".">-0.597</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.592</td>
</tr>
<tr>
<td>zerfurcht</td>
<td align="char" char=".">0.589</td>
<td/>
<td align="char" char=".">-0.450</td>
<td/>
<td align="char" char=".">0.483</td>
</tr>
<tr>
<td>hämmernd</td>
<td align="char" char=".">0.576</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.499</td>
</tr>
<tr>
<td>markant</td>
<td align="char" char=".">0.563</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.594</td>
</tr>
<tr>
<td>stotternd</td>
<td align="char" char=".">0.559</td>
<td align="char" char=".">-0.536</td>
<td/>
<td/>
<td align="char" char=".">0.441</td>
</tr>
<tr>
<td>intensiv</td>
<td align="char" char=".">0.544</td>
<td/>
<td align="char" char=".">0.302</td>
<td/>
<td align="char" char=".">0.509</td>
</tr>
<tr>
<td>zunehmend</td>
<td align="char" char=".">0.534</td>
<td align="char" char=".">-0.351</td>
<td/>
<td align="char" char=".">0.387</td>
<td align="char" char=".">0.481</td>
</tr>
<tr>
<td>klopfend</td>
<td align="char" char=".">0.524</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.699</td>
</tr>
<tr>
<td>kompliziert</td>
<td align="char" char=".">0.509</td>
<td/>
<td align="char" char=".">-0.463</td>
<td/>
<td align="char" char=".">0.560</td>
</tr>
<tr>
<td>schwingend</td>
<td align="char" char=".">-0.496</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.708</td>
</tr>
<tr>
<td>elastisch</td>
<td align="char" char=".">-0.489</td>
<td align="char" char=".">0.464</td>
<td/>
<td/>
<td align="char" char=".">0.598</td>
</tr>
<tr>
<td>fest</td>
<td align="char" char=".">0.483</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.551</td>
</tr>
<tr>
<td>angespannt</td>
<td align="char" char=".">0.474</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.751</td>
</tr>
<tr>
<td>ereignisreich</td>
<td align="char" char=".">0.458</td>
<td/>
<td align="char" char=".">0.322</td>
<td/>
<td align="char" char=".">0.579</td>
</tr>
<tr>
<td>saugend</td>
<td align="char" char=".">-0.457</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.680</td>
</tr>
<tr>
<td>glatt</td>
<td align="char" char=".">-0.440</td>
<td/>
<td align="char" char=".">0.372</td>
<td/>
<td align="char" char=".">0.608</td>
</tr>
<tr>
<td>kunstvoll</td>
<td align="char" char=".">0.432</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.764</td>
</tr>
<tr>
<td>vorwärtstreibend</td>
<td align="char" char=".">0.417</td>
<td/>
<td align="char" char=".">0.382</td>
<td/>
<td align="char" char=".">0.553</td>
</tr>
<tr>
<td>zusammengesetzt</td>
<td/>
<td/>
<td/>
<td/>
<td align="char" char=".">0.901</td>
</tr>
<tr>
<td>pulsierend</td>
<td/>
<td/>
<td/>
<td/>
<td align="char" char=".">0.807</td>
</tr>
<tr>
<td>hinkend</td>
<td/>
<td align="char" char=".">-0.717</td>
<td/>
<td/>
<td align="char" char=".">0.492</td>
</tr>
<tr>
<td>lang</td>
<td/>
<td align="char" char=".">-0.685</td>
<td/>
<td/>
<td align="char" char=".">0.452</td>
</tr>
<tr>
<td>bewegungsanregend</td>
<td/>
<td align="char" char=".">0.659</td>
<td/>
<td/>
<td align="char" char=".">0.467</td>
</tr>
<tr>
<td>beweglich</td>
<td/>
<td align="char" char=".">0.603</td>
<td/>
<td/>
<td align="char" char=".">0.616</td>
</tr>
<tr>
<td>statisch</td>
<td/>
<td align="char" char=".">-0.531</td>
<td/>
<td/>
<td align="char" char=".">0.729</td>
</tr>
<tr>
<td>zögerlich</td>
<td align="char" char=".">-0.417</td>
<td align="char" char=".">-0.513</td>
<td/>
<td/>
<td align="char" char=".">0.412</td>
</tr>
<tr>
<td>kontrastreich</td>
<td/>
<td align="char" char=".">0.502</td>
<td/>
<td/>
<td align="char" char=".">0.630</td>
</tr>
<tr>
<td>monoton</td>
<td/>
<td align="char" char=".">-0.498</td>
<td align="char" char=".">0.366</td>
<td/>
<td align="char" char=".">0.653</td>
</tr>
<tr>
<td>lebendig</td>
<td/>
<td align="char" char=".">0.489</td>
<td/>
<td/>
<td align="char" char=".">0.454</td>
</tr>
<tr>
<td>stoppend</td>
<td/>
<td align="char" char=".">-0.471</td>
<td/>
<td/>
<td align="char" char=".">0.728</td>
</tr>
<tr>
<td>vital</td>
<td/>
<td align="char" char=".">0.451</td>
<td/>
<td align="char" char=".">0.449</td>
<td align="char" char=".">0.400</td>
</tr>
<tr>
<td>springend</td>
<td align="char" char=".">0.375</td>
<td align="char" char=".">0.441</td>
<td/>
<td/>
<td align="char" char=".">0.512</td>
</tr>
<tr>
<td>abwechslungsreich</td>
<td/>
<td align="char" char=".">0.392</td>
<td align="char" char=".">-0.327</td>
<td/>
<td align="char" char=".">0.747</td>
</tr>
<tr>
<td>zurückschnellend</td>
<td/>
<td/>
<td/>
<td/>
<td align="char" char=".">0.961</td>
</tr>
<tr>
<td>regelmässig</td>
<td/>
<td/>
<td align="char" char=".">0.864</td>
<td/>
<td align="char" char=".">0.244</td>
</tr>
<tr>
<td>einheitlich</td>
<td/>
<td align="char" char=".">-0.385</td>
<td align="char" char=".">0.685</td>
<td/>
<td align="char" char=".">0.447</td>
</tr>
<tr>
<td>klar</td>
<td/>
<td/>
<td align="char" char=".">0.674</td>
<td/>
<td align="char" char=".">0.475</td>
</tr>
<tr>
<td>geordnet</td>
<td/>
<td/>
<td align="char" char=".">0.651</td>
<td/>
<td align="char" char=".">0.552</td>
</tr>
<tr>
<td>schwungvoll</td>
<td/>
<td/>
<td align="char" char=".">0.632</td>
<td align="char" char=".">0.362</td>
<td align="char" char=".">0.416</td>
</tr>
<tr>
<td>uneinheitlich</td>
<td/>
<td/>
<td align="char" char=".">-0.625</td>
<td align="char" char=".">-0.369</td>
<td align="char" char=".">0.449</td>
</tr>
<tr>
<td>beherrscht</td>
<td/>
<td/>
<td align="char" char=".">0.586</td>
<td align="char" char=".">-0.343</td>
<td align="char" char=".">0.537</td>
</tr>
<tr>
<td>diffus</td>
<td/>
<td/>
<td align="char" char=".">-0.537</td>
<td/>
<td align="char" char=".">0.683</td>
</tr>
<tr>
<td>beständig</td>
<td/>
<td/>
<td align="char" char=".">0.515</td>
<td/>
<td align="char" char=".">0.690</td>
</tr>
<tr>
<td>akzentuiert</td>
<td align="char" char=".">0.393</td>
<td/>
<td align="char" char=".">0.485</td>
<td align="char" char=".">0.331</td>
<td align="char" char=".">0.317</td>
</tr>
<tr>
<td>einfach</td>
<td/>
<td align="char" char=".">-0.426</td>
<td align="char" char=".">0.468</td>
<td/>
<td align="char" char=".">0.623</td>
</tr>
<tr>
<td>bestimmt</td>
<td align="char" char=".">0.372</td>
<td/>
<td align="char" char=".">0.429</td>
<td/>
<td align="char" char=".">0.477</td>
</tr>
<tr>
<td>rhythmisch</td>
<td/>
<td align="char" char=".">0.332</td>
<td align="char" char=".">0.387</td>
<td/>
<td align="char" char=".">0.668</td>
</tr>
<tr>
<td>graziös</td>
<td align="char" char=".">0.312</td>
<td/>
<td align="char" char=".">-0.326</td>
<td/>
<td align="char" char=".">0.805</td>
</tr>
<tr>
<td>schwer</td>
<td/>
<td/>
<td/>
<td align="char" char=".">-0.861</td>
<td align="char" char=".">0.275</td>
</tr>
<tr>
<td>freudig</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.693</td>
<td align="char" char=".">0.344</td>
</tr>
<tr>
<td>verspielt</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.625</td>
<td align="char" char=".">0.561</td>
</tr>
<tr>
<td>feierlich</td>
<td/>
<td align="char" char=".">-0.336</td>
<td/>
<td align="char" char=".">0.609</td>
<td align="char" char=".">0.556</td>
</tr>
<tr>
<td>fröhlich</td>
<td/>
<td align="char" char=".">0.317</td>
<td align="char" char=".">0.316</td>
<td align="char" char=".">0.555</td>
<td align="char" char=".">0.354</td>
</tr>
<tr>
<td>frei</td>
<td/>
<td align="char" char=".">-0.466</td>
<td/>
<td align="char" char=".">0.523</td>
<td align="char" char=".">0.537</td>
</tr>
<tr>
<td>stampfend</td>
<td align="char" char=".">0.461</td>
<td/>
<td/>
<td align="char" char=".">-0.483</td>
<td align="char" char=".">0.594</td>
</tr>
<tr>
<td>begeisternd</td>
<td/>
<td align="char" char=".">0.429</td>
<td/>
<td align="char" char=".">0.480</td>
<td align="char" char=".">0.316</td>
</tr>
<tr>
<td>kriechend</td>
<td/>
<td/>
<td/>
<td align="char" char=".">-0.385</td>
<td align="char" char=".">0.525</td>
</tr>
<tr>
<td>hüpfend</td>
<td/>
<td/>
<td/>
<td align="char" char=".">0.310</td>
<td align="char" char=".">0.690</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Ladungen &lt; .3 unterdrückt und nach Größe sortiert.</p>
</table-wrap-foot>
</table-wrap>
	
<table-wrap id="t10" position="anchor" orientation="portrait">
<label>Tabelle 10</label><caption><title>Geschätzte LMM-Effektkontraste für EGQ Urge to move (Mittelwertindizes): Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
<table frame="hsides" rules="groups">
<col width="12%" align="left"/>
<col width="28%"/>
<col width="12%"/>
<col width="10%"/>
<col width="14%"/>
<col width="14%"/>
<col width="10%"/>
<thead>
<tr>
<th>Songgenre</th>
<th align="left">Vergleichswert</th>
<th>Differenz</th>
<th><italic>SE</italic></th>
<th>95% CI</th>
<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
<th><italic>p</italic></th>
</tr>
</thead>
<tbody>
<tr>
<td>Country</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.52</td>
<td align="char" char=".">0.1</td>
<td>[-0.71, -0.32]</td>
<td align="char" char=".">-5.08</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Electronic</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.11</td>
<td align="char" char=".">0.09</td>
<td>[-0.07, 0.30]</td>
<td align="char" char=".">1.24</td>
<td align="char" char=".">.216</td>
</tr>
<tr>
<td>R’n‘B</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.15</td>
<td align="char" char=".">0.15</td>
<td>[-0.44, 0.15]</td>
<td align="char" char=".">-0.97</td>
<td align="char" char=".">.332</td>
</tr>
<tr>
<td>HipHop</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">-0.5</td>
<td align="char" char=".">0.07</td>
<td>[-0.64, -0.35]</td>
<td align="char" char=".">-6.74</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Latin</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">1.16</td>
<td align="char" char=".">0.27</td>
<td>[0.64, 1.68]</td>
<td align="char" char=".">4.37</td>
<td align="char" char=".">&lt; .001</td>
</tr>
<tr>
<td>Rock</td>
	<td align="left">MW (alle Genres inkl. Pop)</td>
<td align="char" char=".">0.08</td>
<td align="char" char=".">0.14</td>
<td>[-0.20, 0.35]</td>
<td align="char" char=".">0.55</td>
<td align="char" char=".">.585</td>
</tr>
</tbody>
</table>
<table-wrap-foot>
<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten.</p>
</table-wrap-foot>
</table-wrap>
	
	
	
	<fig id="f9" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 9</label><caption>
			<title>Geschätzte Genremittelwerte des LMM zu EGQ Urge to move (Mittelwertindizes)</title><p><italic>Anmerkung.</italic> Fehlerbalken repräsentieren 95% Konfidenzintervalle.</p></caption><graphic xlink:href="jbdgm.217-f9" position="anchor" orientation="portrait"/></fig>
	
	
	<table-wrap id="t11" position="anchor" orientation="portrait">
		<label>Tabelle 11</label><caption><title>Geschätzte LMM-Effektkontraste für EGQ Pleasure (Mittelwertindizes): Genrebeurteilungen gegen Gesamtmittelwert</title></caption>
		<table frame="hsides" rules="groups">
			<col width="12%" align="left"/>
			<col width="28%"/>
			<col width="12%"/>
			<col width="10%"/>
			<col width="14%"/>
			<col width="14%"/>
			<col width="10%"/>
			<thead>
				<tr>
					<th>Songgenre</th>
					<th align="left">Vergleichswert</th>
					<th>Differenz</th>
					<th><italic>SE</italic></th>
					<th>95% CI</th>
					<th><italic>t</italic> (<italic>df</italic> = 1760)</th>
					<th><italic>p</italic></th>
				</tr>
			</thead>
			<tbody>
				<tr>
					<td>Country</td>
					<td align="left">MW (alle Genres inkl. Pop)</td>
					<td align="char" char=".">-0.05</td>
					<td align="char" char=".">0.09</td>
					<td>[-0.23, 0.13]</td>
					<td align="char" char=".">-0.57</td>
					<td align="char" char=".">.568</td>
				</tr>
				<tr>
					<td>Electronic</td>
					<td align="left">MW (alle Genres inkl. Pop)</td>
					<td align="char" char=".">0.07</td>
					<td align="char" char=".">0.08</td>
					<td>[-0.09, 0.23]</td>
					<td align="char" char=".">0.86</td>
					<td align="char" char=".">.388</td>
				</tr>
				<tr>
					<td>R’n‘B</td>
					<td align="left">MW (alle Genres inkl. Pop)</td>
					<td align="char" char=".">0.06</td>
					<td align="char" char=".">0.13</td>
					<td>[-0.21, 0.32]</td>
					<td align="char" char=".">0.43</td>
					<td align="char" char=".">.666</td>
				</tr>
				<tr>
					<td>HipHop</td>
					<td align="left">MW (alle Genres inkl. Pop)</td>
					<td align="char" char=".">-0.58</td>
					<td align="char" char=".">0.07</td>
					<td>[-0.71, -0.45]</td>
					<td align="char" char=".">-8.87</td>
					<td align="char" char=".">&lt; .001</td>
				</tr>
				<tr>
					<td>Latin</td>
					<td align="left">MW (alle Genres inkl. Pop)</td>
					<td align="char" char=".">0.58</td>
					<td align="char" char=".">0.24</td>
					<td>[0.12, 1.05]</td>
					<td align="char" char=".">2.46</td>
					<td align="char" char=".">.014</td>
				</tr>
				<tr>
					<td>Rock</td>
					<td align="left">MW (alle Genres inkl. Pop)</td>
					<td align="char" char=".">0.09</td>
					<td align="char" char=".">0.12</td>
					<td>[-0.15, 0.34]</td>
					<td align="char" char=".">0.76</td>
					<td align="char" char=".">.445</td>
				</tr>
			</tbody>
		</table>
		<table-wrap-foot>
			<p><italic>Anmerkung</italic>. Sämtliche anderen Modellkoeffizienten wurden zur Kontrastschätzung auf dem Mittelwert gehalten.</p>
		</table-wrap-foot>
	</table-wrap>

	
	<fig id="f10" position="anchor" fig-type="figure" orientation="portrait"><label>Abbildung 10</label><caption>
			<title>Geschätzte Genremittelwerte des LMM zu EGQ Pleasure (Mittelwertindizes)</title>
					<p><italic>Anmerkung.</italic> Fehlerbalken repräsentieren 95% Konfidenzintervalle.</p></caption><graphic xlink:href="jbdgm.217-f10" position="anchor" orientation="portrait"/></fig>
	
	
</app>
</app-group><ack><title>Andere Unterstützung/Danksagung</title>
<p>Wir bedanken uns herzlich bei Prof. Reinhard Kopiez (Hochschule für Musik, Theater und Medien Hannover) für seine Betreuungs- und Ko-Gutachtertätigkeit bei der dargestellten Validierungsstudie, die in einer früheren Fassung als Abschlussarbeit der Zweitautorin im Studiengang „Audiokommunikation und -technologie M.Sc.“ an der Technischen Universität Berlin eingereicht wurde.</p></ack>
<ref-list><title>Literaturverzeichnis</title>
<ref id="r1"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Bates</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Mächler</surname>, <given-names>M.</given-names></string-name>, <string-name name-style="western"><surname>Bolker</surname>, <given-names>B.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Walker</surname>, <given-names>S.</given-names></string-name></person-group> (<year>2015</year>). <article-title>Fitting linear mixed-effects models using lme4.</article-title> <source>Journal of Statistical Software</source>, <volume>67</volume>(<issue>1</issue>), <fpage>1</fpage>–<lpage>48</lpage>. <pub-id pub-id-type="doi">10.18637/jss.v067.i01</pub-id></mixed-citation></ref>
<ref id="r2"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Bechtold</surname>, <given-names>T. A.</given-names></string-name>, <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name>, <string-name name-style="western"><surname>Curry</surname>, <given-names>B.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name></person-group> (<year>2023</year>). <article-title>Understanding the relationship between catchiness and groove: A qualitative study with popular music creators.</article-title> <source>Music Perception</source>, <volume>40</volume>(<issue>5</issue>), <fpage>353</fpage>–<lpage>372</lpage>. <pub-id pub-id-type="doi">10.1525/mp.2023.40.5.353</pub-id></mixed-citation></ref>
<ref id="r3"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Burger</surname>, <given-names>B.</given-names></string-name>, <string-name name-style="western"><surname>Thompson</surname>, <given-names>M.</given-names></string-name>, <string-name name-style="western"><surname>Luck</surname>, <given-names>G.</given-names></string-name>, <string-name name-style="western"><surname>Saarikallio</surname>, <given-names>S.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Toiviainen</surname>, <given-names>P.</given-names></string-name></person-group> (<year>2013</year>). <article-title>Influences of rhythm- and timbre-related musical features on characteristics of music-induced movement.</article-title> <source>Frontiers in Psychology</source>, <volume>4</volume>, <elocation-id>183</elocation-id>. <pub-id pub-id-type="doi">10.3389/fpsyg.2013.00183</pub-id><pub-id pub-id-type="pmid">23641220</pub-id></mixed-citation></ref>
<ref id="r4"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Bowling</surname>, <given-names>D. L.</given-names></string-name>, <string-name name-style="western"><surname>Graf Ancochea</surname>, <given-names>P.</given-names></string-name>, <string-name name-style="western"><surname>Hove</surname>, <given-names>M. J.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Fitch</surname>, <given-names>W. T.</given-names></string-name></person-group> (<year>2019</year>). <article-title>Pupillometry of groove: Evidence for noradrenergic arousal in the link between music and movement.</article-title> <source>Frontiers in Neuroscience</source>, <volume>12</volume>, <elocation-id>1039</elocation-id>. <pub-id pub-id-type="doi">10.3389/fnins.2018.01039</pub-id><pub-id pub-id-type="pmid">30686994</pub-id></mixed-citation></ref>
<ref id="r5"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Cho</surname>, <given-names>E.</given-names></string-name></person-group> (<year>2016</year>). <article-title>Making reliability reliable: A systematic approach to reliability coefficients.</article-title> <source>Organizational Research Methods</source>, <volume>19</volume>(<issue>4</issue>), <fpage>651</fpage>–<lpage>682</lpage>. <pub-id pub-id-type="doi">10.1177/1094428116656239</pub-id></mixed-citation></ref>
<ref id="r6"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Cohen</surname>, <given-names>J.</given-names></string-name></person-group> (<year>1992</year>). <article-title>A power primer.</article-title> <source>Psychological Bulletin</source>, <volume>112</volume>(<issue>1</issue>), <fpage>155</fpage>–<lpage>159</lpage>. <pub-id pub-id-type="doi">10.1037/0033-2909.112.1.155</pub-id><pub-id pub-id-type="pmid">19565683</pub-id></mixed-citation></ref>
<ref id="r7"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Danielsen</surname>, <given-names>A.</given-names></string-name>, <string-name name-style="western"><surname>Nymoen</surname>, <given-names>K.</given-names></string-name>, <string-name name-style="western"><surname>Langerød</surname>, <given-names>M. T.</given-names></string-name>, <string-name name-style="western"><surname>Jacobsen</surname>, <given-names>E.</given-names></string-name>, <string-name name-style="western"><surname>Johansson</surname>, <given-names>M.</given-names></string-name>, &amp; <string-name name-style="western"><surname>London</surname>, <given-names>J.</given-names></string-name></person-group> (<year>2022</year>). <article-title>Sounds familiar(?): Expertise with specific musical genres modulates timing perception and micro-level synchronization to auditory stimuli.</article-title> <source>Attention, Perception &amp; Psychophysics</source>, <volume>84</volume>(<issue>2</issue>), <fpage>599</fpage>–<lpage>615</lpage>. <pub-id pub-id-type="doi">10.3758/s13414-021-02393-z</pub-id><pub-id pub-id-type="pmid">34862587</pub-id></mixed-citation></ref>
<ref id="r8"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Dotov</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Bosnyak</surname>, <given-names>D.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Trainor</surname>, <given-names>L. J.</given-names></string-name></person-group> (<year>2021</year>). <article-title>Collective music listening: Movement energy is enhanced by groove and visual social cues.</article-title> <source>The Quarterly Journal of Experimental Psychology : QJEP</source>, <volume>74</volume>(<issue>6</issue>), <fpage>1037</fpage>–<lpage>1053</lpage>. <pub-id pub-id-type="doi">10.1177/1747021821991793</pub-id><pub-id pub-id-type="pmid">33448253</pub-id></mixed-citation></ref>
<ref id="r9"><mixed-citation publication-type="web">Dudenredaktion. (n.d.). eingrooven. In <italic>Duden online</italic>. Abgerufen am 1. April 2025 von <ext-link ext-link-type="uri" xlink:href="https://www.duden.de/rechtschreibung/eingrooven">https://www.duden.de/rechtschreibung/eingrooven</ext-link></mixed-citation></ref>
<ref id="r10"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Duman</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Snape</surname>, <given-names>N.</given-names></string-name>, <string-name name-style="western"><surname>Danso</surname>, <given-names>A.</given-names></string-name>, <string-name name-style="western"><surname>Toiviainen</surname>, <given-names>P.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Luck</surname>, <given-names>G.</given-names></string-name></person-group> (<year>2024</year>). <article-title>Groove as a multidimensional participatory experience.</article-title> <source>Psychology of Music</source>, <volume>52</volume>(<issue>1</issue>), <fpage>93</fpage>–<lpage>116</lpage>. <pub-id pub-id-type="doi">10.1177/03057356231165327</pub-id></mixed-citation></ref>
<ref id="r11"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Düvel</surname>, <given-names>N.</given-names></string-name>, <string-name name-style="western"><surname>Labonde</surname>, <given-names>P.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T.</given-names></string-name>, <string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Kopiez</surname>, <given-names>R.</given-names></string-name></person-group> (<year>2021</year>). <article-title>Experience of Groove Questionnaire: German translation and validation.</article-title> <source>Music Perception</source>, <volume>39</volume>(<issue>1</issue>), <fpage>83</fpage>–<lpage>99</lpage>. <pub-id pub-id-type="doi">10.1525/mp.2021.39.1.83</pub-id></mixed-citation></ref>
<ref id="r12"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Düvel</surname>, <given-names>N.</given-names></string-name>, <string-name name-style="western"><surname>Labonde</surname>, <given-names>P.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Kopiez</surname>, <given-names>R.</given-names></string-name></person-group> (<year>2022</year>). <article-title>Dissecting the groove experience: The role of instrumentation, low-level audio features, and personal musical background.</article-title> <source>Psychomusicology: Music, Mind, and Brain</source>, <volume>32</volume>(<issue>3–4</issue>), <fpage>109</fpage>–<lpage>122</lpage>. <pub-id pub-id-type="doi">10.1037/pmu0000296</pub-id></mixed-citation></ref>
<ref id="r13"><mixed-citation publication-type="book">Eden, A. (2020). Appreciation and eudaimonic reactions to media. In M.-L. Mares &amp; E. Scharrer (Hrsg.), <italic>The international encyclopedia of media psychology</italic> (S. 1–9). John Wiley &amp; Sons. <pub-id pub-id-type="doi">10.1002/9781119011071.iemp0172</pub-id></mixed-citation></ref>
<ref id="r14"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Etani</surname>, <given-names>T.</given-names></string-name>, <string-name name-style="western"><surname>Miura</surname>, <given-names>A.</given-names></string-name>, <string-name name-style="western"><surname>Kawase</surname>, <given-names>S.</given-names></string-name>, <string-name name-style="western"><surname>Fujii</surname>, <given-names>S.</given-names></string-name>, <string-name name-style="western"><surname>Keller</surname>, <given-names>P. E.</given-names></string-name>, <string-name name-style="western"><surname>Vuust</surname>, <given-names>P.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Kudo</surname>, <given-names>K.</given-names></string-name></person-group> (<year>2024</year>). <article-title>A review of psychological and neuroscientific research on musical groove.</article-title> <source>Neuroscience &amp; Biobehavioral Reviews</source>, <volume>158</volume>, <elocation-id>105522</elocation-id>. <pub-id pub-id-type="doi">10.1016/j.neubiorev.2023.105522</pub-id><pub-id pub-id-type="pmid">38141692</pub-id></mixed-citation></ref>
<ref id="r15"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Fabrigar</surname>, <given-names>L. R.</given-names></string-name>, <string-name name-style="western"><surname>Wegener</surname>, <given-names>D. T.</given-names></string-name>, <string-name name-style="western"><surname>MacCallum</surname>, <given-names>R. C.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Strahan</surname>, <given-names>E. J.</given-names></string-name></person-group> (<year>1999</year>). <article-title>Evaluating the use of exploratory factor analysis in psychological research.</article-title> <source>Psychological Methods</source>, <volume>4</volume>(<issue>3</issue>), <fpage>272</fpage>–<lpage>299</lpage>. <pub-id pub-id-type="doi">10.1037/1082-989X.4.3.272</pub-id></mixed-citation></ref>
<ref id="r16"><mixed-citation publication-type="other">Föderation Deutscher Psychologenvereinigungen. (2022). <italic>Berufsethische Richtlinien des Berufsverbandes Deutscher Psychologinnen und Psychologen e. V. und der Deutschen Gesellschaft für Psychologie e. V</italic>.</mixed-citation></ref>
<ref id="r17"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Gabrielsson</surname>, <given-names>A.</given-names></string-name></person-group> (<year>1973</year>). <article-title>Adjective ratings and dimension analyses of auditory rhythm patterns.</article-title> <source>Scandinavian Journal of Psychology</source>, <volume>14</volume>(<issue>1</issue>), <fpage>244</fpage>–<lpage>260</lpage>. <pub-id pub-id-type="doi">10.1111/j.1467-9450.1973.tb00118.x</pub-id><pub-id pub-id-type="pmid">4772787</pub-id></mixed-citation></ref>
<ref id="r18"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Gonzalez-Sanchez</surname>, <given-names>V. E.</given-names></string-name>, <string-name name-style="western"><surname>Zelechowska</surname>, <given-names>A.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Jensenius</surname>, <given-names>A. R.</given-names></string-name></person-group> (<year>2018</year>). <article-title>Correspondences between music and involuntary human micromotion during standstill.</article-title> <source>Frontiers in Psychology</source>, <volume>9</volume>, <elocation-id>1382</elocation-id>. <pub-id pub-id-type="doi">10.3389/fpsyg.2018.01382</pub-id><pub-id pub-id-type="pmid">30131742</pub-id></mixed-citation></ref>
<ref id="r19"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Green</surname>, <given-names>P.</given-names></string-name>, &amp; <string-name name-style="western"><surname>MacLeod</surname>, <given-names>C. J.</given-names></string-name></person-group> (<year>2016</year>). <article-title>SIMR: An R package for power analysis of generalized linear mixed models by simulation.</article-title> <source>Methods in Ecology and Evolution</source>, <volume>7</volume>(<issue>4</issue>), <fpage>493</fpage>–<lpage>498</lpage>. <pub-id pub-id-type="doi">10.1111/2041-210X.12504</pub-id></mixed-citation></ref>
<ref id="r20"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Hosken</surname>, <given-names>F.</given-names></string-name></person-group> (<year>2020</year>). <article-title>The subjective, human experience of groove: A phenomenological investigation.</article-title> <source>Psychology of Music</source>, <volume>48</volume>(<issue>2</issue>), <fpage>182</fpage>–<lpage>198</lpage>. <pub-id pub-id-type="doi">10.1177/0305735618792440</pub-id></mixed-citation></ref>
<ref id="r21"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Hu</surname>, <given-names>L.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Bentler</surname>, <given-names>P. M.</given-names></string-name></person-group> (<year>1999</year>). <article-title>Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives.</article-title> <source>Structural Equation Modeling</source>, <volume>6</volume>(<issue>1</issue>), <fpage>1</fpage>–<lpage>55</lpage>. <pub-id pub-id-type="doi">10.1080/10705519909540118</pub-id></mixed-citation></ref>
<ref id="r22"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Janata</surname>, <given-names>P.</given-names></string-name>, <string-name name-style="western"><surname>Tomic</surname>, <given-names>S. T.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Haberman</surname>, <given-names>J. M.</given-names></string-name></person-group> (<year>2012</year>). <article-title>Sensorimotor coupling in music and the psychology of the groove.</article-title> <source>Journal of Experimental Psychology. General</source>, <volume>141</volume>(<issue>1</issue>), <fpage>54</fpage>–<lpage>75</lpage>. <pub-id pub-id-type="doi">10.1037/a0024208</pub-id><pub-id pub-id-type="pmid">21767048</pub-id></mixed-citation></ref>
<ref id="r23"><mixed-citation publication-type="web">Joalla. (2024). <italic>discogs_client</italic> [python Paket]. Github. <ext-link ext-link-type="uri" xlink:href="https://github.com/joalla/discogs_client">https://github.com/joalla/discogs_client</ext-link></mixed-citation></ref>
<ref id="r24"><mixed-citation publication-type="web">Jorgensen, T. D., Pornprasertmanit, S., Schoemann, A. M., Rosseel, Y., Miller, P., Quick, C., Garnier-Villarreal, M., Selig, J., Boulton, A., Preacher, K., Coffman, D., Rhemtulla, M., Robitzsch, A., Enders, C., Arslan, R., Clinton, B., Panko, P., Merkle, E., Chesnut, S., . . . Johnson, A. R. (2022). <italic>semTools: useful tools for structural equation modeling</italic> (Version 0.5-6) [Software]. <ext-link ext-link-type="uri" xlink:href="https://CRAN.R-project.org/package=semTools">https://CRAN.R-project.org/package=semTools</ext-link></mixed-citation></ref>
<ref id="r25"><mixed-citation publication-type="book">Juslin, P. N. (2019). Get into the groove: Rhythmic entrainment. In P. N. Juslin (Hrsg.), <italic>Musical emotions explained: Unlocking the secrets of musical affect</italic> (S. 275–286). Oxford University Press. <pub-id pub-id-type="doi">10.1093/oso/9780198753421.003.0019</pub-id></mixed-citation></ref>
<ref id="r26"><mixed-citation publication-type="book">Juslin, P. N., &amp; Sloboda, J. A. (Eds.). (2011). <italic>Handbook of music and emotion: Theory, research, applications</italic>. Oxford University Press.</mixed-citation></ref>
<ref id="r27"><mixed-citation publication-type="web">Kern, H. J., &amp; Lepa, S. (2014). Die “Techno-Schwelle”: Zur Bedeutsamkeit von Lautsprecherwiedergabe und Knochenleitung für die vestibulare Wirkung lauter Bassklänge im EDM-Clubkontext. In <italic>Fortschritte der Akustik – DAGA 2014</italic>. <ext-link ext-link-type="uri" xlink:href="http://pub.dega-akustik.de/DAGA_2014/data/articles/000021.pdf">http://pub.dega-akustik.de/DAGA_2014/data/articles/000021.pdf</ext-link></mixed-citation></ref>
<ref id="r28"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Keil</surname>, <given-names>C.</given-names></string-name></person-group> (<year>1987</year>). <article-title>Participatory discrepancies and the power of music.</article-title> <source>Cultural Anthropology</source>, <volume>2</volume>(<issue>3</issue>), <fpage>275</fpage>–<lpage>283</lpage>. <pub-id pub-id-type="doi">10.1525/can.1987.2.3.02a00010</pub-id></mixed-citation></ref>
<ref id="r29"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Kowalewski</surname>, <given-names>D. A.</given-names></string-name>, <string-name name-style="western"><surname>Kratzer</surname>, <given-names>T. M.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Friedman</surname>, <given-names>R. S.</given-names></string-name></person-group> (<year>2020</year>). <article-title>Social music: Investigating the link between personal liking and perceived groove.</article-title> <source>Music Perception</source>, <volume>37</volume>(<issue>4</issue>), <fpage>339</fpage>–<lpage>346</lpage>. <pub-id pub-id-type="doi">10.1525/mp.2020.37.4.339</pub-id></mixed-citation></ref>
<ref id="r30"><mixed-citation publication-type="book">Lepa, S. (2012). Was kann das Affordanzkonzept für eine Methodologie der Populärkulturforschung leisten? In M. S. Kleiner &amp; M. Rappe (Hrsg.), <italic>Methoden der Populärkulturforschung: Interdisziplinäre Perspektiven auf Film, Fernsehen, Musik, Internet und Computerspiele</italic> (S. 273–298). Lit-Verlag.</mixed-citation></ref>
<ref id="r31"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Levitin</surname>, <given-names>D. J.</given-names></string-name>, <string-name name-style="western"><surname>Grahn</surname>, <given-names>J. A.</given-names></string-name>, &amp; <string-name name-style="western"><surname>London</surname>, <given-names>J.</given-names></string-name></person-group> (<year>2018</year>). <article-title>The psychology of music: Rhythm and movement.</article-title> <source>Annual Review of Psychology</source>, <volume>69</volume>, <fpage>51</fpage>–<lpage>75</lpage>. <pub-id pub-id-type="doi">10.1146/annurev-psych-122216-011740</pub-id><pub-id pub-id-type="pmid">29035690</pub-id></mixed-citation></ref>
<ref id="r32"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Maas</surname>, <given-names>C. J. M.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Hox</surname>, <given-names>J. J.</given-names></string-name></person-group> (<year>2005</year>). <article-title>Sufficient sample sizes for multilevel modeling.</article-title> <source>Methodology: European Journal of Research Methods for the Behavioral and Social Sciences</source>, <volume>1</volume>(<issue>3</issue>), <fpage>86</fpage>–<lpage>92</lpage>. <pub-id pub-id-type="doi">10.1027/1614-2241.1.3.86</pub-id></mixed-citation></ref>
<ref id="r33"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Madison</surname>, <given-names>G.</given-names></string-name></person-group> (<year>2006</year>). <article-title>Experiencing groove induced by music: Consistency and phenomenology.</article-title> <source>Music Perception</source>, <volume>24</volume>(<issue>2</issue>), <fpage>201</fpage>–<lpage>208</lpage>. <pub-id pub-id-type="doi">10.1525/mp.2006.24.2.201</pub-id></mixed-citation></ref>
<ref id="r34"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Matthews</surname>, <given-names>T. E.</given-names></string-name>, <string-name name-style="western"><surname>Stupacher</surname>, <given-names>J.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Vuust</surname>, <given-names>P.</given-names></string-name></person-group> (<year>2023</year>). <article-title>The pleasurable urge to move to music through the lens of learning progress.</article-title> <source>Journal of Cognition</source>, <volume>6</volume>(<issue>1</issue>), <elocation-id>55</elocation-id>. <pub-id pub-id-type="doi">10.5334/joc.320</pub-id><pub-id pub-id-type="pmid">37720891</pub-id></mixed-citation></ref>
<ref id="r35"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Matthews</surname>, <given-names>T. E.</given-names></string-name>, <string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name>, <string-name name-style="western"><surname>Heggli</surname>, <given-names>O. A.</given-names></string-name>, <string-name name-style="western"><surname>Penhune</surname>, <given-names>V. B.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Vuust</surname>, <given-names>P.</given-names></string-name></person-group> (<year>2019</year>). <article-title>The sensation of groove is affected by the interaction of rhythmic and harmonic complexity.</article-title> <source>PLoS ONE</source><italic>,</italic> <volume>14</volume>(<issue>1</issue>), <elocation-id>e0204539</elocation-id>. <pub-id pub-id-type="doi">10.1371/journal.pone.0204539</pub-id></mixed-citation></ref>
<ref id="r36"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Matthews</surname>, <given-names>T. E.</given-names></string-name>, <string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name>, <string-name name-style="western"><surname>Lund</surname>, <given-names>T.</given-names></string-name>, <string-name name-style="western"><surname>Vuust</surname>, <given-names>P.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Penhune</surname>, <given-names>V. B.</given-names></string-name></person-group> (<year>2020</year>). <article-title>The sensation of groove engages motor and reward networks.</article-title> <source>NeuroImage</source>, <volume>214</volume>, <elocation-id>116768</elocation-id>. <pub-id pub-id-type="doi">10.1016/j.neuroimage.2020.116768</pub-id><pub-id pub-id-type="pmid">32217163</pub-id></mixed-citation></ref>
<ref id="r37"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Matyja</surname>, <given-names>J. R.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Schiavio</surname>, <given-names>A.</given-names></string-name></person-group> (<year>2013</year>). <article-title>Enactive music cognition: Background and research themes.</article-title> <source>Constructivist Foundations</source><italic>,</italic> <volume>8</volume>(<issue>3</issue>), <elocation-id>3</elocation-id>.</mixed-citation></ref>
<ref id="r38"><mixed-citation publication-type="book">McDonald, R. P. (1985). <italic>Factor analysis and related methods</italic>. Lawrence-Erlbaum.</mixed-citation></ref>
<ref id="r39"><mixed-citation publication-type="book">McDonald, R. P. (1999). <italic>Test theory: A unified treatment</italic>. Erlbaum.</mixed-citation></ref>
<ref id="r40"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Merlini</surname>, <given-names>M.</given-names></string-name></person-group> (<year>2020</year>). <article-title>A critical (and interdisciplinary) survey of popular music genre theories.</article-title> <source>Interdisciplinary Studies in Musicology</source>, <volume>20</volume>, <fpage>79</fpage>–<lpage>94</lpage>. <pub-id pub-id-type="doi">10.14746/ism.2020.20.7</pub-id></mixed-citation></ref>
<ref id="r41"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Muthén</surname>, <given-names>L. K.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Muthén</surname>, <given-names>B. O.</given-names></string-name></person-group> (<year>2002</year>). <article-title>How to use a Monte Carlo study to decide on sample size and determine power.</article-title> <source>Structural Equation Modeling</source>, <volume>9</volume>(<issue>4</issue>), <fpage>599</fpage>–<lpage>620</lpage>. <pub-id pub-id-type="doi">10.1207/S15328007SEM0904_8</pub-id></mixed-citation></ref>
<ref id="r42"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Müllensiefen</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Gingras</surname>, <given-names>B.</given-names></string-name>, <string-name name-style="western"><surname>Musil</surname>, <given-names>J.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Stewart</surname>, <given-names>L.</given-names></string-name></person-group> (<year>2014</year>). <article-title>The musicality of non-musicians: An index for assessing musical sophistication in the general population.</article-title> <source>PLoS ONE</source><italic>,</italic> <volume>9</volume>(<issue>2</issue>), <elocation-id>e89642</elocation-id>. <pub-id pub-id-type="doi">10.1371/journal.pone.0089642</pub-id></mixed-citation></ref>
<ref id="r43"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>O’Connell</surname>, <given-names>S. R.</given-names></string-name>, <string-name name-style="western"><surname>Nave-Blodgett</surname>, <given-names>J. E.</given-names></string-name>, <string-name name-style="western"><surname>Wilson</surname>, <given-names>G. E.</given-names></string-name>, <string-name name-style="western"><surname>Hannon</surname>, <given-names>E. E.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Snyder</surname>, <given-names>J. S.</given-names></string-name></person-group> (<year>2022</year>). <article-title>Elements of musical and dance sophistication predict musical groove perception. </article-title> <source>Frontiers in Psychology</source>, <volume>13</volume>, <elocation-id>998321</elocation-id>. <pub-id pub-id-type="doi">10.3389/fpsyg.2022.998321</pub-id><pub-id pub-id-type="pmid">36467160</pub-id></mixed-citation></ref>
<ref id="r44"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Pando-Naude</surname>, <given-names>V.</given-names></string-name>, <string-name name-style="western"><surname>Matthews</surname>, <given-names>T. E.</given-names></string-name>, <string-name name-style="western"><surname>Højlund</surname>, <given-names>A.</given-names></string-name>, <string-name name-style="western"><surname>Jakobsen</surname>, <given-names>S.</given-names></string-name>, <string-name name-style="western"><surname>Østergaard</surname>, <given-names>K.</given-names></string-name>, <string-name name-style="western"><surname>Johnsen</surname>, <given-names>E.</given-names></string-name>, <string-name name-style="western"><surname>Garza-Villarreal</surname>, <given-names>E. A.</given-names></string-name>, <string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name>, <string-name name-style="western"><surname>Penhune</surname>, <given-names>V.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Vuust</surname>, <given-names>P.</given-names></string-name></person-group> (<year>2024</year>). <article-title>Dopamine dysregulation in Parkinson’s disease flattens the pleasurable urge to move to musical rhythms.</article-title> <source>The European Journal of Neuroscience</source>, <volume>59</volume>(<issue>1</issue>), <fpage>101</fpage>–<lpage>118</lpage>. <pub-id pub-id-type="doi">10.1111/ejn.16128</pub-id><pub-id pub-id-type="pmid">37724707</pub-id></mixed-citation></ref>
<ref id="r45"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Pfleiderer</surname>, <given-names>M.</given-names></string-name></person-group> (<year>2002</year>). <article-title>„It don’t mean a thing if it ain’t got that swing": Überlegungen zur mikrorhythmischen Gestaltung in populärer Musik.</article-title> <source>Jahrbuch Musikpsychologie</source>, <volume>16</volume>, <fpage>102</fpage>–<lpage>122</lpage>.</mixed-citation></ref>
<ref id="r46"><mixed-citation publication-type="book">Pfleiderer, M. (2006). <italic>Rhythmus: Psychologische, theoretische und stilanalytische Aspekte populärer Musik</italic>. transcript. <pub-id pub-id-type="doi">10.1515/9783839405154</pub-id></mixed-citation></ref>
<ref id="r47"><mixed-citation publication-type="web">Pfleiderer, M. (2010). Dimensionen der Groove-Erfahrung. Eine empirische Studie. <italic>PopScriptum, 11</italic>. <ext-link ext-link-type="uri" xlink:href="https://edoc.hu-berlin.de/handle/18452/21062">https://edoc.hu-berlin.de/handle/18452/21062</ext-link></mixed-citation></ref>
<ref id="r48"><mixed-citation publication-type="book">Raykov, T. (2012). Scale construction and development using structural equation modeling. In R. H. Hoyle (Hrsg.), <italic>Handbook of structural equation modeling</italic> (S. 472–492). Guilford Press.</mixed-citation></ref>
<ref id="r49"><mixed-citation publication-type="book">Roholt, T. C. (2014). <italic>Groove. A phenomenology of rhythmic nuance</italic>. Bloomsbury.</mixed-citation></ref>
<ref id="r50"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Romkey</surname>, <given-names>I. D.</given-names></string-name>, <string-name name-style="western"><surname>Matthews</surname>, <given-names>T.</given-names></string-name>, <string-name name-style="western"><surname>Foster</surname>, <given-names>N.</given-names></string-name>, <string-name name-style="western"><surname>Bella</surname>, <given-names>S. D.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Penhune</surname>, <given-names>V. B.</given-names></string-name></person-group> (<year>2025</year>). <article-title>The pleasurable urge to move to music is unchanged in people with musical anhedonia.</article-title> <source>PLoS ONE</source><italic>,</italic> <volume>20</volume>(<issue>1</issue>), <elocation-id>e0312030</elocation-id>. <pub-id pub-id-type="doi">10.1371/journal.pone.0312030</pub-id><pub-id pub-id-type="pmid">39774498</pub-id></mixed-citation></ref>
<ref id="r51"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Rönkkö</surname>, <given-names>M.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Cho</surname>, <given-names>E.</given-names></string-name></person-group> (<year>2022</year>). <article-title>An updated guideline for assessing discriminant validity.</article-title> <source>Organizational Research Methods</source>, <volume>25</volume>(<issue>1</issue>), <fpage>6</fpage>–<lpage>14</lpage>. <pub-id pub-id-type="doi">10.1177/1094428120968614</pub-id></mixed-citation></ref>
<ref id="r52"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Rose</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Müllensiefen</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Lovatt</surname>, <given-names>P.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Orgs</surname>, <given-names>G.</given-names></string-name></person-group> (<year>2022</year>). <article-title>The Goldsmiths Dance Sophistication Index (Gold-DSI): A psychometric tool to assess individual differences in dance experience.</article-title> <source>Psychology of Aesthetics, Creativity, and the Arts</source>, <volume>16</volume>(<issue>4</issue>), <fpage>733</fpage>–<lpage>745</lpage>. <pub-id pub-id-type="doi">10.1037/aca0000340</pub-id></mixed-citation></ref>
<ref id="r53"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Rosseel</surname>, <given-names>Y.</given-names></string-name></person-group> (<year>2012</year>). <article-title>lavaan: An R package for structural equation modeling.</article-title> <source>Journal of Statistical Software</source>, <volume>48</volume>(<issue>2</issue>), <fpage>1</fpage>–<lpage>36</lpage>. <pub-id pub-id-type="doi">10.18637/jss.v048.i02</pub-id></mixed-citation></ref>
<ref id="r54"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Savalei</surname>, <given-names>V.</given-names></string-name></person-group> (<year>2018</year>). <article-title>On the computation of the RMSEA and CFI from the mean-and-variance corrected test statistic with nonnormal data in SEM.</article-title> <source>Multivariate Behavioral Research</source>, <volume>53</volume>(<issue>3</issue>), <fpage>419</fpage>–<lpage>429</lpage>. <pub-id pub-id-type="doi">10.1080/00273171.2018.1455142</pub-id><pub-id pub-id-type="pmid">29624085</pub-id></mixed-citation></ref>
<ref id="r55"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Schaal</surname>, <given-names>N. K.</given-names></string-name>, <string-name name-style="western"><surname>Bauer</surname>, <given-names>A.-K. R.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Müllensiefen</surname>, <given-names>D.</given-names></string-name></person-group> (<year>2014</year>). <article-title>Der Gold-MSI: Replikation und Validierung eines Fragebogeninstrumentes zur Messung Musikalischer Erfahrenheit anhand einer deutschen Stichprobe.</article-title> <source>Musicae Scientiae</source>, <volume>18</volume>(<issue>4</issue>), <fpage>423</fpage>–<lpage>447</lpage>. <pub-id pub-id-type="doi">10.1177/1029864914541851</pub-id></mixed-citation></ref>
<ref id="r56"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Schiavio</surname>, <given-names>A.</given-names></string-name>, <string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Stupacher</surname>, <given-names>J.</given-names></string-name></person-group> (<year>2024</year>). <article-title>Meaning-making and creativity in musical entrainment.</article-title> <source>Frontiers in Psychology</source>, <volume>14</volume>, <elocation-id>1326773</elocation-id>. <pub-id pub-id-type="doi">10.3389/fpsyg.2023.1326773</pub-id><pub-id pub-id-type="pmid">38235276</pub-id></mixed-citation></ref>
<ref id="r57"><mixed-citation publication-type="preprint">Seeberg, A. B., Matthews, T. E., Højlund, A., Vuust, P., &amp; Petersen, B. (2024a). <italic>Beyond syncopation: The number of rhythmic layers shapes the pleasurable urge to move to music</italic> [Preprint]. SSRN<italic>.</italic> <pub-id pub-id-type="doi">10.2139/ssrn.4899990</pub-id></mixed-citation></ref>
<ref id="r58"><mixed-citation publication-type="preprint">Seeberg, A. B., Matthews, T. E., Højlund, A., Vuust, P., &amp; Petersen, B. (2024b). <italic>The pleasurable urge to move to music in cochlear implant users</italic> [Preprint]. SSRN<italic>.</italic> <pub-id pub-id-type="doi">10.2139/ssrn.4931906</pub-id></mixed-citation></ref>
<ref id="r59"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Hoesl</surname>, <given-names>F.</given-names></string-name></person-group> (<year>2018</year>). <article-title>Groove in drum patterns as a function of both rhythmic properties and listeners’ attitudes.</article-title> <source>PLoS ONE</source><italic>,</italic> <volume>13</volume>(<issue>6</issue>), <elocation-id>e0199604</elocation-id>. <pub-id pub-id-type="doi">10.1371/journal.pone.0199604</pub-id><pub-id pub-id-type="pmid">29958289</pub-id></mixed-citation></ref>
<ref id="r60"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T. A.</given-names></string-name>, <string-name name-style="western"><surname>Hoesl</surname>, <given-names>F.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name></person-group> (<year>2021</year>). <article-title>Taste and familiarity affect the experience of groove in popular music.</article-title> <source>Musicae Scientiae</source>, <volume>25</volume>(<issue>1</issue>), <fpage>45</fpage>–<lpage>66</lpage>. <pub-id pub-id-type="doi">10.1177/1029864919839172</pub-id></mixed-citation></ref>
<ref id="r61"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T.</given-names></string-name>, <string-name name-style="western"><surname>Rose</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Câmara</surname>, <given-names>G. S.</given-names></string-name>, <string-name name-style="western"><surname>Düvel</surname>, <given-names>N.</given-names></string-name>, <string-name name-style="western"><surname>Jerjen</surname>, <given-names>R.</given-names></string-name>, <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name>, <string-name name-style="western"><surname>Hoesl</surname>, <given-names>F.</given-names></string-name>, <string-name name-style="western"><surname>Baldassarre</surname>, <given-names>A.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Alessandri</surname>, <given-names>E.</given-names></string-name></person-group> (<year>2020</year>). <article-title>Experience of groove questionnaire: Instrument development and initial validation.</article-title> <source>Music Perception</source>, <volume>38</volume>(<issue>1</issue>), <fpage>46</fpage>–<lpage>65</lpage>. <pub-id pub-id-type="doi">10.1525/mp.2020.38.1.46</pub-id></mixed-citation></ref>
<ref id="r62"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T.</given-names></string-name>, <string-name name-style="western"><surname>Hoesl</surname>, <given-names>F.</given-names></string-name>, <string-name name-style="western"><surname>Jerjen</surname>, <given-names>R.</given-names></string-name>, <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name>, <string-name name-style="western"><surname>Rose</surname>, <given-names>D.</given-names></string-name>, <string-name name-style="western"><surname>Baldassarre</surname>, <given-names>A.</given-names></string-name>, <string-name name-style="western"><surname>Sigrist</surname>, <given-names>C.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Alessandri</surname>, <given-names>E.</given-names></string-name></person-group> (<year>2023</year>). <article-title>An SEM approach to validating the psychological model of musical groove.</article-title> <source>Journal of Experimental Psychology. Human Perception and Performance</source>, <volume>49</volume>(<issue>3</issue>), <fpage>290</fpage>–<lpage>305</lpage>. <pub-id pub-id-type="doi">10.1037/xhp0001087</pub-id><pub-id pub-id-type="pmid">36931839</pub-id></mixed-citation></ref>
<ref id="r63"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T. A.</given-names></string-name>, <string-name name-style="western"><surname>Jerjen</surname>, <given-names>R.</given-names></string-name>, <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Hoesl</surname>, <given-names>F.</given-names></string-name></person-group> (<year>2023</year>). <article-title>Three psychometric scales for groove research: Inner representation of temporal regularity, time-related interest, and energetic arousal.</article-title> <source>Music &amp; Science</source>, <volume>6</volume>. <pub-id pub-id-type="doi">10.1177/20592043231185663</pub-id></mixed-citation></ref>
<ref id="r64"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Senn</surname>, <given-names>O.</given-names></string-name>, <string-name name-style="western"><surname>Hoesl</surname>, <given-names>F.</given-names></string-name>, <string-name name-style="western"><surname>Bechtold</surname>, <given-names>T. A.</given-names></string-name>, <string-name name-style="western"><surname>Kilchenmann</surname>, <given-names>L.</given-names></string-name>, <string-name name-style="western"><surname>Jerjen</surname>, <given-names>R.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Witek</surname>, <given-names>M.</given-names></string-name></person-group> (<year>2024</year>). <article-title>Null effect of perceived drum pattern complexity on the experience of groove.</article-title> <source>PLOS ONE</source>, <volume>19</volume>(<issue>11</issue>), <elocation-id>e0311877</elocation-id>. <pub-id pub-id-type="doi">10.1371/journal.pone.0311877</pub-id></mixed-citation></ref>
<ref id="r65"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Todd</surname>, <given-names>N. P. M.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Cody</surname>, <given-names>F. W.</given-names></string-name></person-group> (<year>2000</year>). <article-title>Vestibular responses to loud dance music: A physiological basis of the “rock and roll threshold”?</article-title> <source>The Journal of the Acoustical Society of America</source>, <volume>107</volume>(<issue>1</issue>), <fpage>496</fpage>–<lpage>500</lpage>. <pub-id pub-id-type="doi">10.1121/1.428317</pub-id><pub-id pub-id-type="pmid">10641657</pub-id></mixed-citation></ref>
<ref id="r66"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Windsor</surname>, <given-names>W. L.</given-names></string-name>, &amp; <string-name name-style="western"><surname>de Bézenac</surname>, <given-names>C.</given-names></string-name></person-group> (<year>2012</year>). <article-title>Music and affordances.</article-title> <source>Musicae Scientiae</source>, <volume>16</volume>(<issue>1</issue>), <fpage>102</fpage>–<lpage>120</lpage>. <pub-id pub-id-type="doi">10.1177/1029864911435734</pub-id></mixed-citation></ref>
<ref id="r67"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name></person-group> (<year>2017</year>). <article-title>Filling in: Syncopation, pleasure and distributed embodiment in groove.</article-title> <source>Music Analysis</source>, <volume>36</volume>(<issue>1</issue>), <fpage>138</fpage>–<lpage>160</lpage>. <pub-id pub-id-type="doi">10.1111/musa.12082</pub-id></mixed-citation></ref>
<ref id="r68"><mixed-citation publication-type="journal"><person-group person-group-type="author"><string-name name-style="western"><surname>Witek</surname>, <given-names>M. A. G.</given-names></string-name>, <string-name name-style="western"><surname>Clarke</surname>, <given-names>E. F.</given-names></string-name>, <string-name name-style="western"><surname>Wallentin</surname>, <given-names>M.</given-names></string-name>, <string-name name-style="western"><surname>Kringelbach</surname>, <given-names>M. L.</given-names></string-name>, &amp; <string-name name-style="western"><surname>Vuust</surname>, <given-names>P.</given-names></string-name></person-group> (<year>2014</year>). <article-title>Syncopation, body-movement and pleasure in groove music.</article-title> <source>PLoS ONE</source><italic>,</italic> <volume>9</volume>(<issue>4</issue>), <elocation-id>e94446</elocation-id>. <pub-id pub-id-type="doi">10.1371/journal.pone.0094446</pub-id><pub-id pub-id-type="pmid">24740381</pub-id></mixed-citation></ref>
</ref-list>
	<sec sec-type="data-availability" id="das"><title>Data Availability</title>
		<p>Für diesen Artikel werden Datensätze und Skripte zur Verfügung gestellt (siehe <xref ref-type="bibr" rid="sp1_r1">Pfleiderer &amp; Lepa, 2025</xref>; <xref ref-type="bibr" rid="sp1_r2">Ahrens &amp; Lepa, 2025</xref>; <xref ref-type="bibr" rid="sp1_r3">Lepa, 2025</xref>).</p>
	</sec>	

	
	
	
	<sec sec-type="supplementary-material" id="sp1"><title>Ergänzende Materialien</title>
		<p>Für diesen Artikel sind folgende ergänzende Materialien verfügbar:</p>
		
		<list list-type="bullet">
			<list-item><p>Der Datensatz der Entwicklungsstudie (Daten aus <xref ref-type="bibr" rid="r47">Pfleiderer, 2010</xref>) (siehe <xref ref-type="bibr" rid="sp1_r1">Pfleiderer &amp; Lepa, 2025</xref>)</p></list-item>
			<list-item><p>Der Datensatz der Validierungsstudie (PGGT - Pop-Groove-Ground-Truth-Dataset) (siehe <xref ref-type="bibr" rid="sp1_r2">Ahrens &amp; Lepa, 2025</xref>)</p></list-item>
			<list-item><p>Die Skripte und Ergebnisse der zu den Faktorenanalysen und Linear Mixed Models dieser Arbeit durchgeführten Power-Simulationsstudien (siehe <xref ref-type="bibr" rid="sp1_r3">Lepa, 2025</xref>)</p></list-item>
		</list>
		
		<ref-list content-type="supplementary-material" id="suppl-ref-list">
			<ref id="sp1_r1">
				<mixed-citation publication-type="supplementary-material">
					<person-group person-group-type="author">
						<name name-style="western">
							<surname>Pfleiderer</surname>
							<given-names>M.</given-names>
						</name>
							<name name-style="western">
								<surname>Lepa</surname>
								<given-names>S.</given-names>
							</name>
					</person-group> (<year>2025</year>). <source>DGE Dataset: Dimensionen der Groove-Erfahrung</source> <comment>[Datensatz]</comment>. <publisher-name>Technische Universität Berlin</publisher-name>. <pub-id pub-id-type="doi" xlink:href="https://doi.org/10.14279/depositonce-23174">10.14279/depositonce-23174</pub-id>		
				</mixed-citation>
			</ref>
			
			<ref id="sp1_r2">
				<mixed-citation publication-type="supplementary-material">
					<person-group person-group-type="author">
						<name name-style="western">
							<surname>Ahrens</surname>
							<given-names>L.</given-names>
						</name>
						<name name-style="western">
							<surname>Lepa</surname>
							<given-names>S.</given-names>
						</name>
					</person-group> (<year>2025</year>). <source>Pop Groove Ground-Truth Dataset (PGGT): Entwicklung einer Ground-Truth Datenbasis für die automatische Groove-Klassifikation von Popmusiktiteln</source> <comment>[Datensatz]</comment>. <publisher-name>Technische Universität Berlin</publisher-name>. <pub-id pub-id-type="doi" xlink:href="https://doi.org/10.14279/depositonce-23940">10.14279/depositonce-23940</pub-id>		
				</mixed-citation>
			</ref>
			
			<ref id="sp1_r3">
				<mixed-citation publication-type="supplementary-material">
					<person-group person-group-type="author">
						<name name-style="western">
							<surname>Lepa</surname>
							<given-names>S.</given-names>
						</name>
					</person-group> (<year>2025</year>). <source>Power simulation study scripts and results for Lepa, Ahrens &amp; Pfleiderer (2025)</source> <comment>[Skripte, Ergebnisse]</comment>. <publisher-name>Technische Universität Berlin</publisher-name>. <pub-id pub-id-type="doi" xlink:href="https://doi.org/10.14279/depositonce-24335">10.14279/depositonce-24335</pub-id>		
				</mixed-citation>
			</ref>
		</ref-list>
	</sec>
			

<fn-group>
<fn fn-type="financial-disclosure"><p>Die Autor*innen haben keine Finanzierung für das Forschungsprojekt erhalten.</p></fn>
</fn-group>
<fn-group>
<fn fn-type="conflict"><p>Die Autor*innen haben erklärt, dass keinerlei konkurrierende Interessen bestehen.</p></fn>
</fn-group>
</back>
</article>
