Kategorisierungs-Lernen:RUBubbles vereinfachen Forscherleben

Neue Open-Source-Software erleichtert Stimulusgenerierung und ermöglicht individuelle Anpassungen

Die Einteilung der Welt in Kategorien ist eine Schlüsselkomponente der Kognition und erleichtert das tägliche Leben in einer sich ständig verändernden Umgebung. Einem Forscherteam aus Bochum ist es nun gelungen, einen neuartigen Stimulustyp zur Untersuchung des Kategorisierungslernens zu entwickeln: die sogenannten „RUBubbles“. Ihre Erkenntnisse veröffentlichten die Wissenschaftler nun in der Zeitschrift Behavior Research Methods.

Die RUBubbles werden digital erzeugt und ermöglichen ein hohes Maß an Individualisierung bei geringen Rechenkosten. Der gesamte benötigte MATLAB-Code ist als Open-Source-Code frei verfügbar. Mit Hilfe der RUBubbles sind Forschende nun in der Lage, sehr schnell große Stimulusmengen zu erzeugen, die zudem alle Vorteile künstlicher Stimuli beinhalten.

Ob Zeichentrick-Tiere, zufällige Punktmuster oder Picasso und Monet-Gemälde. Um das Kategorisierungslernen zu erforschen werden in der Wissenschaft die unterschiedlichsten Reize verwendet – und dies sowohl bei menschlichen als auch bei tierischen Probanden. „Ein gängiger Ansatz ist ein anfängliches Training mit mehreren Stimuli und ein anschließendes Testen der Kategorisierung mit neuen Stimuli“, so Aylin Apostel, Erstautorin der Studie. „Ein Auswendiglernen gilt es zwingend auszuschließen, um valide Forschungsergebnisse zu erhalten. Somit stellt sich den Wissenschaftlerinnen und Wissenschaftlern stets die Herausforderung, den Probanden beim Testen einerseits neue und unbekannte Reize anzubieten aber andererseits auch so nah bei den trainierten Stimuli zu bleiben, dass eine schlüssige Kategorisierung erfolgen kann.“

Variabel in vier Stimuluseigenschaften

Bei den neuentwickelten „RUBubbles“ handelt es sich um visuelle künstliche Kategoriestimuli. Anzahl der Kugeln, Position im 3D-Raum, Kugelgröße und -farbe können als Stimulus-Parameter separat eingestellt und kontrolliert werden.

Jede Wissenschaftlerin und jeder Wissenschaftler kann die RUBubbles den Bedürfnissen seines Forschungsvorhabens individuell anpassen.

Prof. Dr. Jonas Rose

„Jede Wissenschaftlerin und jeder Wissenschaftler kann die RUBubbles den Bedürfnissen seines Forschungsvorhabens individuell anpassen“, erläutert Prof. Dr. Jonas Rose, der sich an der Bochumer Fakultät für Psychologie mit neuronalen Grundlagen des Lernens beschäftigt.

Durch die Verwendung der RUBubbles ist es möglich, einzelne Stimuluseigenschaften präzise zu steuern und somit deren separaten Einfluss auf die Kategorisierungsleistung einzelner beziehungsweise verschiedener Probanden zu untersuchen.

Im Gegensatz zu bereits existierenden Stimulustypen, lässt sich schnell eine große Anzahl einzigartiger RUBubble-Stimuli erzeugen. Durch die Anpassung der RUBubbles an spezifische Trainingsabläufe können verschiedene Eigenschaften und Strategien des Kategorisierungslernens auf Verhaltens- und neuronaler Ebene untersucht werden.

Nützliche Ergänzung zur Objekterkennungsforschung

Die unkomplizierte Erzeugung von RUBubble-Stimuli könne Studien erleichtern, die größere Mengen einzigartiger Reize erfordern, so das Forschungsduo. RUBubbles würden somit eine nützliche Ergänzung zur Objekterkennungsforschung darstellen.

Der gesamte benötigte MATLAB-Code ist als Open-Source-Code frei verfügbar und kann individuell erweitert werden – und das auch ohne MATLAB-Lizenz oder Programmierkenntnisse.

Aylin Apostel, Hauptentwicklerin der RUBubbles

Die Stimuli können sowohl rein programmatisch als auch über eine „RUBubblesAPP“ gesteuert werden. Für eine vollständige Liste der Funktionen, das Benutzerhandbuch und vieles mehr hat das Bochumer Forschungsteam unter https://gitlab.ruhr-uni-bochum.de/ikn/rububbles/-/wikis/home ein Wiki eingerichtet. Rose betont: „Unser RUBubble-Rahmenwerk ist als lebendes Produkt gedacht, das eine solide Grundlage bietet, die weiterentwickelt werden kann.“

(Hinweis der Redaktion: Abbildung der RUBubbles stammt aus https://link.springer.com/article/10.3758/s13428-021-01695-2/figures/2. Teile der Abbildung wurden abgewandelt.)