Teilnehmer
Wir rekrutierten sechsundzwanzig Erwachsene (13 weiblich; Durchschnittsalter = 23,12 ± 4,03) aus der Allgemeinbevölkerung (mit Hilfe von Flugblättern und Internetanzeigen) zur Teilnahme an der aktuellen Studie. Zu den Ausschlusskriterien gehörten psychiatrische oder neurologische Erkrankungen in der Vorgeschichte (bewertet mit einem Telefonfragebogen, der auf den Kriterien des Diagnostischen und Statistischen Handbuchs für Psychische Störungen, 4.) Alle Teilnehmer gaben vor der Teilnahme an den studienbezogenen Aktivitäten eine schriftliche Einverständniserklärung ab. Alle Teilnehmer erhielten außerdem eine finanzielle Entschädigung für ihre Teilnahme. Das Institutional Review Board der Universität von Arizona hat das Forschungsprotokoll der vorliegenden Studie geprüft und genehmigt, und alle Methoden wurden in Übereinstimmung mit den einschlägigen Richtlinien und Vorschriften durchgeführt.
Arbeitsgedächtnisaufgabe
Nach Abschluss der Einverständniserklärung wurden den Teilnehmern schriftliche Anweisungen (auf einem Laptop) für die Durchführung der WM-Aufgabe vorgelegt (diese Aufgabe ist in Abb. 1 dargestellt). In diesen Anweisungen hieß es: „Ihnen wird eine Reihe von Bildern gezeigt, die typischerweise emotionale Reaktionen auslösen“ und „bei jedem Versuch wird Ihnen ein Bild gezeigt und die Anweisung gegeben, auf etwas Bestimmtes zu achten“. Die Instruktionen informierten die Teilnehmer dann darüber, dass es nach dem Betrachten des Bildes eine Pause geben würde (in der nur ein schwarzer Bildschirm zu sehen war), in der sie das betrachtete Element im Gedächtnis behalten sollten. Dann wurde den Teilnehmern mitgeteilt, dass nach der Pause drei Optionen auf dem Bildschirm erscheinen würden und dass sie aufgefordert würden, eine der drei entsprechenden Tasten zu drücken, um ihr Gedächtnis zu testen.
Vor jedem Versuch erschien (in pseudo-zufälliger Reihenfolge) eine Anweisung, die entweder „Emotion“, „Bild“, „Körper“ oder „Ruhe“ angab. Den Teilnehmern wurde gesagt, dass die Anweisung „Emotion“ bedeutet, dass sie während der Pause auf ihre eigene emotionale Reaktion auf das Bild achten und dieses emotionale Gefühl im Kopf behalten sollten. Die Teilnehmer wurden darüber informiert, dass, wenn die drei Optionen nach der Pause auf dem Bildschirm erscheinen, zwei Optionen Emotionswörter sein würden (einschließlich: wütend, angewidert, glücklich, neutral, ängstlich oder traurig). Die dritte Option wäre „weder noch“. Sie wurden angewiesen, die Option (durch Tastendruck) zu wählen, die der emotionalen Reaktion, die sie im Gedächtnis hatten, am besten entsprach. Ihnen wurde gesagt, dass die Anweisung „Bild“ bedeute, dass sie während der Pause auf die Dinge auf dem Bild achten und das Bild im Kopf behalten sollten. Die Teilnehmer wurden darüber informiert, dass, wenn die drei Optionen nach der Pause auf dem Bildschirm erschienen, zwei Optionen Kategorienwörter sein würden (einschließlich: Mensch, Tier, Kind, Erwachsener, männlich, weiblich, nur lebendig oder nicht lebendig). Die dritte Option wäre „weder noch“. Sie wurden angewiesen, die Option (per Tastendruck) zu wählen, die ihrer Erinnerung an das Bild am besten entsprach. Ihnen wurde gesagt, dass die Anweisung „Körper“ bedeutet, dass sie während der Pause auf ihre eigene körperliche Reaktion auf das Bild achten und sich dieses Körpergefühl vor Augen halten sollten. Die Teilnehmer wurden darüber informiert, dass, wenn nach der Pause die drei Optionen auf dem Bildschirm erschienen, zwei Optionen den Stellen an ihrem Körper entsprechen würden, an denen sie eine Veränderung gespürt haben könnten (einschließlich: Herz, Magen, Arme, Gesicht, Hals oder keine Veränderung). Die dritte Option wäre „weder noch“. Sie wurden angewiesen, die Option (per Tastendruck) zu wählen, die ihrer Erinnerung an die markanteste Stelle, an der sie eine Veränderung an ihrem Körper gespürt hatten, am ehesten entsprach. Schließlich wurde ihnen gesagt, dass die Anweisung „Ruhe“ bedeutet, dass sie sich während der Pause an nichts erinnern müssen. Die Teilnehmer wurden darüber informiert, dass, wenn die drei Optionen nach der Pause auf dem Bildschirm erschienen, zwei Optionen „nicht drücken“ und die dritte Option „drücken“ lauten würde. Sie wurden angewiesen, bei jedem Versuch die Option (durch Tastendruck) zu wählen, auf der „Drücken“ stand. Diese Bedingung diente als Kontrollbedingung, bei der während der Erhaltungsphase nichts im WM festgehalten wurde, aber alle Stimulusbedingungen identisch waren.
Schließlich wurden sie angewiesen, während der Pausenzeit für jeden Versuchstyp bestimmte Strategien anzuwenden. Für die Bedingung „Emotion“ wurden sie gebeten, „das emotionale Gefühl im Kopf zu behalten, um sich daran zu erinnern, welche Emotion es war“. Bei der Bedingung „Bild“ sollten sie „das visuelle Bild des Bildes im Kopf behalten, um sich zu erinnern, was darauf zu sehen war“. Bei der Bedingung „Körper“ sollten sie sich „das Körpergefühl vor Augen halten, um sich daran zu erinnern, wo Sie eine Reaktion Ihres Körpers gespürt haben“. Außerdem sollten sie „versuchen, sich NICHT einfach ein Wort vorzustellen“ (z. B. „Tier, Tier, Tier“ oder „traurig, traurig, traurig“ oder „Magen, Magen, Magen“, um sich zu erinnern). Auf diese Weise sollte vermieden werden, dass in jeder Bedingung eine auditive WM-Strategie verwendet wird (z. B. damit die Teilnehmer in der Bedingung „Emotion“ tatsächlich ein Gefühlskonzept im Kopf hatten, in der Bedingung „Bild“ ein visuelles Bild usw.). Nach dem Lesen dieser Anweisungen hatten die Teilnehmer die Möglichkeit, Fragen zu stellen, und durften dann die Aufgabe mehrere Male auf dem Laptop üben. In dieser Übungsphase wurden die Teilnehmer zwei Mal mit jeder Art von Anweisung konfrontiert. Nach dieser Übungsphase konnten die Teilnehmer erneut klärende Fragen stellen, wenn sie etwas noch nicht ganz verstanden hatten.
Die Teilnehmer wurden dann zum Magnetresonanztomographen (MRT) an der Universität von Arizona gebracht, wo sie sich einer funktionellen MRT-Untersuchung unterzogen (siehe Neuroimaging-Methoden unten), während sie die WM-Aufgabe erledigten. Vor Beginn des Scannens erhielten sie auch eine kleine Anzahl von Übungsversuchen, um sich an die Durchführung der Aufgabe in der Scannerumgebung zu gewöhnen.
Die Aufgabe verwendete normative emotionale Stimuli, die aus dem International Affective Picture System (IAPS) gewonnen wurden. Auf der Grundlage der normativen IAPS-Daten (männlich/weiblich), die von Lang et al.38 bereitgestellt wurden, wurden unter Verwendung einer 9-Punkte-Ratingskala Bilder für jede Valenz ausgewählt (unangenehm (U) = Mvalenz < 4,0, neutral (N) = 4,0 < Mvalenz < 6,0, angenehm (P) = Mvalenz > 6,0). Die Aufgabe war in Bezug auf alle Stimulus- und Bedingungsvariablen so weit wie möglich ausbalanciert. Dabei wurde sichergestellt, dass jede Antwortmöglichkeit etwa gleich oft gezeigt wurde. Außerdem wurde sichergestellt, dass jede Aufgabenbedingung eine äquivalente Anzahl von Bildern in jeder Valenzkategorie enthielt (d. h. jede der vier Aufmerksamkeits-/Gedächtnisbedingungen beinhaltete die Präsentation von 10 unangenehmen Bildern, 5 angenehmen Bildern und 5 neutralen Bildern in pseudozufälliger Reihenfolge), und dass diese Bilder in den Bedingungen so weit wie möglich inhaltlich übereinstimmten. Eine größere Anzahl normativ unangenehmer Bilder wurde aufgenommen, weil es eine größere Anzahl unangenehmer Grundemotionskategorien gibt (d.h. „traurig“, „ängstlich“, „wütend“ und „angewidert“ im Vergleich zu nur „glücklich“ und „neutral“). Es wurden auch zwei gegensätzliche Aufgabenversionen erstellt, indem die verwendeten Bilder zwischen den Bedingungen „Emotion“ und „Bild“ sowie zwischen den Bedingungen „Körper“ und „Ruhe“ ausgetauscht wurden. Jeder Teilnehmer führte eine dieser äquivalenten Aufgabenversionen durch (d. h. die Hälfte der Teilnehmer erhielt Version 1 und die Hälfte Version 2). Es ist daher zu erwarten, dass sich ein möglicher Einfluss der unterschiedlichen Bilder, die innerhalb der einzelnen Bedingungen zu sehen waren, innerhalb der Gruppenanalysen aufhebt.
Die Dauer der Aufgabe (20 Minuten) ermöglichte 20 Versuche in jeder der 4 Bedingungen. Bei jedem Versuch war das Timing wie folgt: Trial Instruction = 3 s, Image = 2 s, Maintenance Period = 5 s, Decision Period (Anzeige der drei Optionen) = 3 s. Nach der Decision Period gab es außerdem ein Intertrial-Intervall variabler Länge (Anzeige eines Fadenkreuzes), das entweder 0,5 s, 2 s oder 3.5 s dauerte.
Nach Abschluss des Scannens wurden die Teilnehmer zurück ins Labor begleitet, setzten sich an einen Laptop und wurden gebeten, einige zusätzliche Messungen vorzunehmen.
Sekundärmaßnahmen
Messungen des emotionalen Bewusstseins
Zwei Messungen von EA wurden durchgeführt. Zunächst füllten die Teilnehmer eine Online-Version der Levels of Emotional Awareness Scale (LEAS) (www.eleastest.net) aus, die ein validiertes automatisches Auswertungsprogramm verwendet39. Die LEAS umfasst die Präsentation von Beschreibungen von 20 sozialen Situationen in 2-4 Sätzen, an denen jeweils 2 Personen beteiligt sind. Die Situationsbeschreibungen sind so konzipiert, dass sie vier Gefühlskategorien (Traurigkeit, Freude, Wut und Angst) auf 5 Komplexitätsstufen hervorrufen. Auf jeder elektronisch präsentierten Seite wird eine Situation vorgestellt, gefolgt von zwei Fragen: „Wie würden Sie sich fühlen?“ und „Wie würde sich die andere Person fühlen?“. Für die Eingabe der Antworten auf die einzelnen Fragen stehen separate Antwortfelder zur Verfügung. Die Teilnehmer werden gebeten, so viel oder so wenig Platz für ihre Antworten zu verwenden, wie sie benötigen. Sie werden auch darauf hingewiesen, dass sie das Wort „fühlen“ in ihren Antworten verwenden müssen.
Auf der Grundlage der Wörter, die die Teilnehmer in ihre Antworten schreiben, werden Punktzahlen vergeben. Die niedrigste Punktzahl wird für Wörter vergeben, die keine Gefühle ausdrücken (Stufe 0). Wörter, die sich auf physiologische Empfindungen beziehen (z. B. „müde“), erhalten eine Punktzahl der Stufe 1, während die Punktzahlen der Stufe 2 stattdessen gefühlsbezogene Handlungen (z. B. „schlagen“) oder einfache Valenzunterscheidungen (z. B. „schlecht“, „gut“) widerspiegeln, die einen inhärenten Vermeidungs- oder Annäherungsinhalt haben. Punkte der Stufe 3 werden für einzelne Emotionskonzepte vergeben (z. B. „glücklich“, „traurig“). Stufe 4 wird vergeben, wenn mindestens zwei Wörter der Stufe 3 im selben Item verwendet werden (d. h., sie vermitteln eine größere emotionale Differenzierung als jedes Wort allein). Die selbst- und fremdbezogenen Antworten werden für jedes Item wie oben beschrieben getrennt bewertet (d. h. mit einem Wert von 0-4). Für jedes der 20 LEAS-Items wird außerdem ein „Gesamtwert“ angegeben; dieser Wert entspricht dem höheren der selbst- und fremdbezogenen Werte, es sei denn, es wird für beide ein Wert von 4 angegeben. In diesem Fall wird für das Item eine Gesamtpunktzahl von 5 vergeben, sofern die selbst- und fremdbezogenen Antworten differenziert werden können (für weitere Einzelheiten siehe Ref. 29). (Hinweis: Die LEAS-Scores aus diesem Datensatz wurden bereits in Verbindung mit anderen Neuroimaging-Daten veröffentlicht21,40,41. Ihre Beziehung zu den Bildgebungsdaten aus dieser EWM-Aufgabe ist jedoch neu für das vorliegende Manuskript).
Als zweites Maß für EA absolvierten die Teilnehmer auch die Frith-Happé-Animationsaufgabe (AT;42). Diese Aufgabe wurde ursprünglich entwickelt, um die Theory of Mind im Allgemeinen zu messen; sie wurde jedoch in jüngster Zeit auch in einigen Studien in Verbindung mit dem LEAS-Scoring-System verwendet, um eine ergänzende Messung von EA zu ermöglichen, die nicht von sprachbasierten Aufforderungen abhängt oder von den Teilnehmern verlangt, sich detaillierte Szenarien vorzustellen (siehe z. B. Referenzen43,44,45). Das in dieser Studie verwendete AT bestand aus 12 Animationen von einfachen, sich bewegenden Formen (z. B. 2 Dreiecke), die auf einem Computerbildschirm präsentiert wurden (Dauer jeweils 34-45 Sekunden). Diese 12 Animationsclips fielen in 3 Kategorien mit jeweils 4 Animationen: 1) eine Kategorie „Gedanken/Gefühle“ (TF) mit Animationen, die die Wahrnehmung von Überzeugungen, Wünschen und Emotionen innerhalb der Dreiecke förderten; 2) eine Kategorie „einfache Interaktionen“ (SI) mit Animationen, die die Wahrnehmung einfacher zielgerichteter Bewegungen förderten (z. B. ein Dreieck, das einem anderen „folgt“); und 3) eine Kategorie „zufällige Bewegung“ (RM), die Animationen enthielt, in denen die Dreiecke ohne sinnvolles Muster auf dem Bildschirm umherschwebten. Vor dem Betrachten der Animationen (die in einer für alle Teilnehmer ausgeglichenen Reihenfolge präsentiert wurden) wurden die Teilnehmer über die drei Animationskategorien informiert und bekamen eine Beispielanimation jedes Typs gezeigt. Sie wurden dann aufgefordert, sich jede Animation in Ruhe anzusehen und „zu beschreiben, was in der Animation passiert“, indem sie direkt nach dem Ansehen jedes Clips eine Beschreibung in ein Textfeld auf dem Computer eintrugen. Der Hälfte der Animationen (zwei aus jeder Kategorie) ging ein verbaler Hinweis auf den Animationstyp (d. h. TF, SI oder RM) voraus, während die andere Hälfte ohne diese Information auskam.
Um EA zu bewerten, wurde jede der schriftlichen Animationsbeschreibungen kodiert und nach den Kriterien für die Bewertung der LEAS (z. B. wie in den Referenzen43,44) bewertet, wobei das zuvor validierte automatische LEAS-Bewertungsprogramm39 verwendet wurde. Ein Forschungsassistent überprüfte anschließend die schriftlichen Beschreibungen und automatischen Bewertungen und korrigierte alle falsch positiven oder falsch negativen Ergebnisse des automatischen Programms (gemäß dem LEAS-Bewertungshandbuch). Da es in den Animationen jedoch kein „Selbst“ und „Anderes“ gab, wurde für jede schriftliche Beschreibung keine Stufe 5 vergeben. Jede Animationsbeschreibung erhielt daher eine EA-Punktzahl von 0-4, und diese Punktzahlen wurden dann über die 12 Animationsbeschreibungen für jede Person summiert. Diese zweite Methode zur Bewertung des emotionalen Bewusstseins verwendete visuelle Stimulusaufforderungen im Gegensatz zu den sprachbasierten Aufforderungen zur Beschreibung sozialer Szenarien, die in der LEAS verwendet wurden, und kann daher weniger durch individuelle Unterschiede in sprachlichen oder imaginären Fähigkeiten beeinträchtigt werden.
Neuroimaging-Methoden
Ein 3T-Siemens-Skyra-Scanner (Siemens, Erlangen, Deutschland) mit einer 32-Kanal-Kopfspule wurde zur Durchführung von Neuroimaging verwendet. T1-gewichtete strukturelle 3D-MPRAGE-Bilder wurden mit 176 sagittalen Schichten (256 × 256) und einer Schichtdicke von 1 mm (Voxelgröße = 1 × 1 × 1) aufgenommen (TR/TE/flip angle = 2,1 s/2,33 ms/12 Grad). Funktionelle T2*-gewichtete Scans wurden über 32 transversale Schichten (2,5 mm Dicke) aufgenommen. Jedes Volumen wurde mit einer interleaved Sequenz (TR/TE/flip angle = 2,0 s/25 ms/90 Grad) aufgenommen. Die Voxelgröße der T2*-Sequenz betrug 2,5 × 2,5 × 3,5 mm. Das Sichtfeld (FOV) betrug 240 mm.
Bildverarbeitung
Vorverarbeitungsschritte sowie nachfolgende statistische Analysen wurden mit SPM12 (Wellcome Department of Cognitive Neurology, London, UK; http://www.fil.ion.ucl.ac.uk/spm) für alle MRI-Scans durchgeführt. Mithilfe von Standardalgorithmen wurden die funktionellen Rohbilder neu ausgerichtet, unverzerrt und mit den MPRAGE-Bildern der einzelnen Probanden koregistriert. Die Bilder wurden dann auf den Koordinatenraum des Montreal Neurological Institute (MNI) normalisiert, räumlich auf 6 mm (volle Breite bei halbem Maximum) geglättet und in 2 × 2 × 2 mm große Voxel zerlegt. Es wurde die kanonische Standardfunktion der hämodynamischen Reaktion in SPM verwendet, und niederfrequente Störungen wurden mit einem 128-Sekunden-Hochpassfilter minimiert. Die serielle Autokorrelation wurde mit der AR(1)-Funktion weiter korrigiert. Das Artifact Detection Tool (ART; http://www.nitrc.org/projects/artifact_detect/) wurde auch verwendet, um Scans als störende Kovariaten in der First-Level-Analyse herauszurechnen (Schwellenwert: 3 SD in der mittleren globalen Intensität und Scan-zu-Scan-Bewegung von mehr als 1,0 mm).
Statistische Analyse
Für jeden Teilnehmer wurde ein allgemeines lineares Modell spezifiziert, um die Aktivierung während der Erhaltungsperiode zwischen den Bedingungen „Emotion“, „Bild“ und „Ruhe“ zu kontrastieren. Die Kontraste für die Bedingung „Körper“ werden in einem separaten Manuskript beschrieben (in Vorbereitung). Jeder Versuch wurde als ein 5-Sekunden-Intervall modelliert. Bewegungsregressoren (generiert von ART – siehe Bildverarbeitung oben) wurden ebenfalls zu jedem dieser 1st-Level-Designs hinzugefügt. Diese Kontrastbilder wurden dann in SPM-Analysen der zweiten Ebene eingegeben (T-Tests mit einer Stichprobe), um den Haupteffekt jedes interessierenden Kontrasts zu bewerten. Der erste Kontrast war „Emotion > Bild“, der alle Regionen hervorheben sollte, die durch die Aufrechterhaltung von Emotionen aktiviert werden, die nicht auch durch die Aufrechterhaltung visueller Informationen aktiviert werden. Der zweite Kontrast war „Emotion > Ruhe“, der alle Regionen hervorheben sollte, die durch die Aufrechterhaltung der eigenen Emotionen aktiviert werden (d. h. im Vergleich zu einer Periode, in der keine WM-Aufrechterhaltung stattfindet). Der dritte Kontrast war „Bild > Ruhe“, der alle Regionen hervorheben sollte, die durch die Aufrechterhaltung der visuellen Bilder aktiviert wurden (d. h. im Vergleich zu keiner WM-Aufrechterhaltung). Die beiden letztgenannten Kontraste und ihre Inversen wurden analysiert, um eine gründlichere Interpretation des primären „Emotion > Bild“-Kontrasts zu ermöglichen, der seinerseits die in früheren Studien durchgeführten Kontraste zwischen emotionsfokussierter und visuell fokussierter Aufmerksamkeit (z.B. ref.13) und WM20 repliziert. Schließlich wurden Konjunktionsanalysen (innerhalb eines flexiblen faktoriellen Modells in SPM12) durchgeführt, um gemeinsame Aktivierungsregionen für (1) die Kontraste „Emotion > Ruhe“ und „Bild > Ruhe“ und (2) die Kontraste „Ruhe > Emotion“ und „Ruhe > Bild“ zu bestätigen. Diese Konjunktionsanalysen wurden mit der SPM12-Funktion „Konjunktionsnull“ durchgeführt46.
Für diese Analysen wurde ein Signifikanzschwellenwert für das gesamte Gehirn von p < 0,001 (unkorrigiert) und ein Schwellenwert für die Clusterausdehnung von p < 0,05 (korrigierte Falschentdeckungsrate) festgelegt. Die erste Eigenvariante über alle Probanden hinweg wurde auch aus dem dACC-Cluster extrahiert, der im Kontrast „Emotion > Image“ gefunden wurde (unter Verwendung des in SPM12 eingebauten Werkzeugs zur Extraktion von Volume-of-Interest-Zeitserien; siehe Abschnitt „Ergebnisse“), das der Region am nächsten lag, die in früheren EA-Studien beobachtet wurde32,33, und dies wurde mit unseren beiden EA-Maßen korreliert (weiter unten beschrieben). Die Identifizierung/Beschriftung von Clustern erfolgte in Verbindung mit dem Automated Anatomical Labeling (AAL)-Atlas in SPM1247.