Neuroformer ist ein leistungsfähiges, multimedienfähiges und multitaskingfähiges generatives vortrainiertes Transformermodell, das speziell entwickelt wurde, um die Komplexität großer, zellulärer neuronaler Datensätze zu bewältigen. Es kann neuronale Aktivität, Stimuli und Verhalten effizient modellieren und vorhersagen.
Neuroformer ist ein leistungsfähiges, multimedienfähiges und multitaskingfähiges generatives vortrainiertes Transformermodell, das speziell entwickelt wurde, um die Komplexität großer, zellulärer neuronaler Datensätze zu bewältigen. Es kann neuronale Aktivität und Verhalten genau vorhersagen und liefert gleichzeitig Einblicke in die zugrunde liegenden neuronalen Schaltkreise.
Die Methode MARBLE ermöglicht eine datengesteuerte, interpretierbare Darstellung der nichtlinearen Dynamik neuronaler Populationen, die mit der Geometrie der neuronalen Aktivitätsmanifolds korrespondiert und über verschiedene Systeme hinweg konsistent ist.
Die Studie untersucht die Eigenschaften positiver und negativer funktionaler Konnektivität im visuellen Hirnnetzwerk, um ein besseres Verständnis der neuronalen Interaktionen im Gehirn während visueller Aufgaben zu erlangen.
Durch ein optimierungsbasiertes Clusterverfahren können diskriminierende Stimuli identifiziert werden, die eine effiziente Zuordnung von Neuronen zu funktionalen Zelltypen in Retina und visueller Kortex ermöglichen.
Die Methode ERDiff ermöglicht die Erhaltung der räumlich-zeitlichen Struktur von latenten Dynamiken für eine effektive neuronale Verteilungsausrichtung.
Effektive Connectome werden durch Bayesianische Methoden auf Basis von fMRT- und DTI-Daten präziser und zuverlässiger entdeckt.
Ein tiefes visuelles Repräsentationsmodell ermöglicht die präzise Rekonstruktion von visuellen Stimulusbildern aus EEG-Signalen.
Übertragbare neuronale Repräsentationen aus fMRT-Daten verschiedener Probanden ermöglichen robustes Lernen und verbesserte Dekodierung.
Neuronaler Code ermöglicht invariantes Wortlesen durch Positionscodierung.