Feedback

Implicit learning of spatial context in visual search

GND
132776243
Affiliation/Institute
Institut für Psychologie
Schendzielarz, Ilka

In the present experiments the paradigm of contextual cueing was used to investigate implicit learning of spatial context. The contextual cueing effect refers to the finding that in serial visual search tasks, the configuration of the target and the surrounding distractors can be learned implicitly, leading to faster target detection when configurations are repeated (Chun & Jiang, 1998). The first two experiments in this work demonstrated that contextual cueing did not occur in a pop-out task but at the transition from preattentive to attentive search. Further experiments investigated the robustness of contextual cueing. The contextual cueing effect was robust against large jitter of the configurations and did not depend on conspicuous arrangements in the configurations. In addition, an unvaried stimulus-response association did not enhance the learning effect. In the last section, the experiments aimed at the question whether the configurations could be explicitly learned. Results indicated that configurations could be memorized explicitly and it showed that in the course of time, explicit learning effects increased more than implicit learning effects. In the last experiment, this finding was replicated and extended for more repetitions of the configurations. To demonstrate that the contextual cueing effect is an implicit learning effect, results of a recognition test used by Chun and Jiang (1998) were replicated and an alternative recognition test was introduced which strengthened the former findings. Participants who were trained in the different tasks had remarkable learning effects of which they were not aware. Thus, results clearly demonstrated that contextual cueing is an implicit learning effect which is robust against a variety of manipulations.

In der vorliegenden Arbeit wurde das Contextual Cueing Paradigma benutzt um implizites Lernen von räumlichem Kontext zu untersuchen. Als Contextual Cueing Effekt bezeichnet man den Befund, dass bei seriellen visuellen Suchaufgaben die Konfiguration, bestehend aus dem Zielreiz und den umgebenden Distraktorreizen, implizit gelernt werden kann. Dies führt zu einer schnelleren Zielreizentdeckung, wenn man die Konfiguration wiederholt darbietet (Chun & Jiang, 1998). Die ersten Experimente dieser Arbeit belegen, das Contextual Cueing bei rein parallelen Suchaufgaben nicht auftrat, sich aber am Übergang von präattentiver zu attentiver Suche entwickelte. Weitere Experimente untersuchten wie robust Contextual Cueing ist. Der Contextual Cueing Effekt war robust gegenüber großen Verwacklungen der Konfigurationen und zeigte sich als unabhängig von auffälligen Reizgruppierungen in den Konfigurationen. Eine Kopplung der zu gebenden Antwort mit der spezifischen Konfiguration führte nicht zu einem größeren Lerneffekt. Im letzten Teil der Arbeit wurde untersucht, ob die Konfigurationen explizit gelernt werden können. Die Ergebnisse belegen, dass dies möglich ist und es zeigte sich, dass die expliziten Lerneffekte im Laufe der Zeit stärker zunahmen als die impliziten Lerneffekte. Im letzten Experiment konnte dieser Befund für mehr Wiederholungen erweitert werden. Um zu belegen, dass es sich beim Contextual Cueing Effekt um einen impliziten Effekt handelt, konnten die Befunde eines Wiedererkennenstest von Chun und Jiang (1998) repliziert werden. Erweiternd wurde ein alternativer Wiedererkennenstest eingeführt, dessen Ergebnisse frühere Befunde stützen. Die Versuchspersonen, die in den verschiedenen Aufgaben trainiert wurden zeigten große Lerneffekte ohne sich dieses Wissen bewusst machen zu können. Die Ergebnisse belegen daher deutlich, dass es sich beim Contextual Cueing Effekt um einen impliziten Lerneffekt handelt, der sehr robust gegenüber einer Vielzahl von Manipulationen ist.

Cite

Citation style:
Could not load citation form.

Access Statistic

Total:
Downloads:
Abtractviews:
Last 12 Month:
Downloads:
Abtractviews:

Rights

Use and reproduction:
All rights reserved