1. THORNDIKE’S PUZZLE BOX = hungrige Katzen mussten lernen zu fliehen, um an eine Schüssel mit Futter zu kommen – Thorndike maß die LATENZ zur Flucht. Ergebnisse = über Versuche, LATENCY declined
Der allmähliche Verlauf der Kurve überzeugte Thorndike davon, dass die Tiere kein rationales Verständnis für die Situation entwickelt hatten, sondern dass die Futterbelohnung eine Assoziation zwischen den Stücken in der Rätselbox und dem Entkommen herstellte. Er formulierte seine Überzeugung in seinem „GESETZ DER WIRKUNG“
„WENN AUF EINE REAKTION WIEDERHOLT EIN BEFRIEDIGENDER ZUSTAND FOLGT, WIRD DIESE REAKTION AN FREQUENZ STEIGEN“
2. DISKRETE VERSUCHSVERFAHREN = Während des Trainings endet 1) jeder Versuch, wenn das Tier aus dem Gerät entfernt wird, und 2) die instrumentelle Reaktion wird nur einmal während jedes Versuchs ausgeführt. In der Regel wird bei diskreten Versuchen eine Art Labyrinth verwendet.
Die Verwendung von Labyrinthen wurde von W.S. SMALL an der Clark University eingeführt, um das Lernen bei Ratten zu untersuchen.
Seine Inspiration erhielt er durch einen Artikel im Scientific American, in dem beschrieben wurde, wie Ratten in unterirdischen Höhlen lebten und sich ständig ihren Weg durch „labyrinthartige“ Passagen bahnen mussten – also nahm er Anleihen bei der Natur, d. h. er brachte die Natur ins Labor und richtete etwas ein, das er für das Äquivalent dieser unterirdischen Labyrinthe hielt.
Messen Sie 1) LAUFGESCHWINDIGKEIT = wie schnell ein Tier von der Startbox zur Zielbox gelangen kann — wird normalerweise mit jedem Versuch schneller — die Tiere werden schneller; oder 2) SPÄTZEIT = die Zeit, die die Tiere brauchen, um die Startbox zu verlassen und die Gasse hinunterzulaufen — wird normalerweise mit jedem Versuch kürzer — die Tiere werden schneller.
3. FREE-OPERANT PROCEDURES = Verfahren, bei denen das Tier in einem von ihm selbst festgelegten Tempo reagiert (d.h., sie sind „frei“, auf ihre Umgebung einzuwirken, indem sie reagieren, wann und wie oft sie wollen). Skinner verzichtete ganz auf das Labyrinth und entwarf eine Kammer, in der sich die Start- und die Zielbox an derselben Stelle befanden, so dass das Tier nirgendwo hinlaufen musste, und baute die „Skinner-Box“ – oder operante Kammer.
Trainingsschritte:
1.Schritt =MAGAZIN TRAINING = Geräusch der Futterausgabe (klassische Konditionierung signtracking!)
ZWEITER SCHRITT =SHAPING = Belohnung von aufeinanderfolgenden Annäherungen an das gewünschte Verhalten
Messen Sie das Verhalten des Tieres mit einem CUMULATIVEN RECORDER.
Dies ist ein Gerät, das eine rotierende Trommel hat, die Papier mit einer konstanten Geschwindigkeit herauszieht – ein Stift sitzt auf dem Papier. Wenn keine Reaktion erfolgt, bleibt der Stift stehen und zeichnet eine flache, horizontale Linie, während das Papier aus der Maschine kommt. Wenn ein Tier einen Hebeldruck ausübt, bewegt sich der Stift auf dem Papier um eine Stufe nach oben und bleibt oben – die nächste Reaktion bewegt den Stift um eine weitere Stufe nach oben und so weiter und so fort – man nennt es kumulativ, weil man die Gesamtzahl der Reaktionen messen kann, indem man einfach den vertikalen Abstand zwischen der Stelle, an der der Stift begann, und der Stelle, an der der Stift stehen blieb, nachdem das Tier nicht mehr reagierte, betrachtet.
VERTICALDISTANCE = Gesamtzahl der Reaktionen
HORIZONTALDISTANCE = wie viel Zeit verstrichen ist
SLOPE OF THELINE = Reaktionsgeschwindigkeit (wie schnell das Tier die Stange gedrückt hat)
4. VERSTÄRKUNGSSCHEMEN =Regeln, die bestimmen, wann eine Antwort verstärkt wird.
KONTINUIERLICHE VERSTÄRKUNG (CRF) = jede Antwort wird verstärkt.
PARTIELLE oder INTERMITTENDE VERSTÄRKUNG — 2 Arten: Ratio & Intervall
1. RATIO SCHEDULE = Verstärkung hängt von der Anzahl der abgegebenen Antworten ab, Beispiel „Stückwerk“, bei dem die Leute danach bezahlt werden, wie viele Artikel sie herstellen (NICHT danach, wie lange es dauert, sie herzustellen)
a. FIXED RATIO = feste Zahl, in FR30 wird jede 30. Antwort belohnt
b. VARIABLES VERHÄLTNIS = variable Zahl, bei VR30 wird durchschnittlich jede 30. Antwort belohnt.
2. INTERVALLSZEITPLAN = die Verstärkung hängt davon ab, wie viel Zeit seit der letzten Verstärkung vergangen ist, z.B. wenn man Post bekommt, kann man den Briefkasten zig Mal am Tag besuchen, aber man wird trotzdem erst 24 Stunden nach dem heutigen Stapel Post bekommen.
a. FIXED INTERVAL = feste Zeitspanne, bei FI30 wird die erste Antwort, die nach Ablauf von 30 Sekunden erfolgt, belohnt.
b. VARIABLES INTERVALL = variable Zeitspanne, bei VI30 wird die erste Antwort, die nach Ablauf von durchschnittlich 30 Sekunden erfolgt, belohnt.
Jeder Zeitplan hat eine andere Auswirkung auf das Verhalten:
FIXED INTERVAL= nach einer Verstärkung kommt es zu einer sehr geringen Reaktion, aber die Rate beschleunigt sich stetig und erreicht einen Höhepunkt, kurz bevor die nächste Verstärkung fällig ist. Dies wird als FI SCALLOP bezeichnet. WAS SAGT UNS DAS ÜBER TIERE – WAS TUN SIE? SIE BEURTEILEN DIE ZEIT — sehr, sehr wichtige Implikationen — wenn du jede Stunde belohnst, dann wird das Verhalten nur jede Stunde auftreten.
FIXED RATIO = du bekommst Pause und rennst, Belohnung, dann Pause, gefolgt von vielem Drücken, dann Belohnung.
Mit VARIABLESCHEDULEN (entweder VI oder VR) bekommst du viel regelmäßiger, weil die Verstärkung zu jeder Zeit auftreten kann — sie kann nicht vorhergesagt werden. Welche(r) Zeitplan(e) kennt Las Vegas Ihrer Meinung nach?
Ein letzter Zeitplan – FIXED-TIME SCHEDULE ist die automatische Abgabe eines Verstärkers zu einem bestimmten Zeitpunkt (z.B. alle 2 Minuten). Im Gegensatz zu einem FIXED INTERVAL SCHEDULE ist bei einem FIXED TIME SCHULE die Verstärkung NICHT von einer Reaktion abhängig, d.h. das Tier wird unabhängig von dem, was es gerade tut, bestärkt. Skinner nannte diese „zufällige“ Verstärkung SUPERSTITIOUSBEHAVIOR, weil das Tier so tut, als ob sein Verhalten Verstärkung erzeugt, während in Wirklichkeit nichts (oder nichts), was es tut, zum Erhalt der Belohnung führt.
5. ANTWORT-ERGEBNIS-KONTINGENZEN
Somedefinitionen:
APPETITIVESTIMULUS = ein angenehmes Ereignis.
AVERSIVESTIMULUS = ein unangenehmes Ereignis.
POSITIVE KONTINGENZ = eine Antwort „schaltet“ einen Reiz ein = eine Ratte kann auf den Balken drücken, der das Futtermagazin aktiviert und sie bekommt etwas Futter.
NEGATIVE KONTINGENZ = eine Reaktion „schaltet“ einen Reiz aus = eine Ratte kann in der Skinner-Box sitzen und der Experimentator kann ein lautes Geräusch von sich geben – wenn die Ratte den Balken drückt, wird das Geräusch ausgeschaltet.
Vier gemeinsame Vorgehensweisen bringen unsere 2 Arten von Ereignissen (APPETITIV und AVERSIV) und unsere 2 Arten von Antwort-Ergebnis-Kontingenzen (POSITIV und NEGATIV) zusammen:
a.POSITIVE VERSTÄRKUNG = Verfahren, bei denen die Reaktion einen APPETITIVEN STIMULUS einleitet. Wenn die Reaktion erfolgt, wird der appetitive Reiz präsentiert. Bleibt die Reaktion aus, wird der appetitanregende Stimulus nicht präsentiert. Dies ist eine POSITIVE KONTINGENZ und die Reaktionsrate steigt.
POSITIVEREINFÜHRUNG
APPETITIVESTIMULUS
POSITIVE KONTINGENZ
RESPONDINGINCREASES
b.BESTRAFUNG = Verfahren, bei denen die Antwort einen AVERSIVEN STIMULUS auslöst. Wenn die Reaktion erfolgt, erhält sie den aversiven Reiz. Wenn die Reaktion nicht erfolgt, wird der aversive Stimulus nicht dargeboten. Dies ist eine POSITIVE KONTINGENZ und die Reaktionsrate nimmt ab.
Bestrafung
AVERSIVESTIMULUS
POSITIVE KONTINGENZ
RESPONTIERENDE VERRINGERUNG
c.NEGATIVE VERSTÄRKUNG = Verfahren, bei denen die Reaktion einen AVERSIVEN STIMULUS ausschaltet oder verhindert. Wenn die Reaktion eintritt, wird der AVERSIVE STIUMULUS entweder gar nicht eingeschaltet oder ausgeschaltet. Wenn die Reaktion ausbleibt, wird der aversive Reiz eingeschaltet oder bleibt eingeschaltet. Dies ist eine NEGATIVE KONTINGENZ und die Reaktionsrate steigt.
NEGATIVE VERSTÄRKUNG
AVERSIVER STIMULUS
NEGATIVE KONTINGENZ
RESPONTIERENDE ANTWORTEN
2 Arten von NEGATIVER VERSTÄRKUNG – die eine wird alsESCAPE bezeichnet, bei der die Antwort den AVERSIVEN STIMULUS ausschaltet. Zum Beispiel kann ein Experimentator ein lautes Geräusch einschalten, und die Ratte drückt einmal auf den Balken und schaltet es aus. Indem das Tier eine Reaktion ausführt, entgeht es der aversiven Situation.
Und die andere wird AVOIDANCE genannt, bei der die Reaktion einen AVERSIVEN STIMULUS verhindert. Ein Beispiel: Eine Ratte kann klassisch konditioniert werden, indem ein Licht mit einem Fußschock verbunden wird. Zeigt man das Licht, läuft die Ratte hin und drückt einmal auf die Stange, um zu verhindern, dass der Schock jemals eintritt. Indem das Tier diese Reaktion ausführt, hat es den aversiven Reiz vermieden.
d.VERMEIDUNGSTRAINING = Verfahren, bei denen die Reaktion einen APPETITIVEN REIZ ausschaltet oder verhindert. Tritt die Reaktion ein, so wird der APPETITIVE STIMULUS „ausgelassen“. Bleibt die Reaktion aus, tritt der appetitanregende Reiz ein. Dies ist eine NEGATIVE KONTINGENZ und die Reaktionsrate nimmt ab.
OMISSIONTRAINING
APPETITIVESTIMULUS
NEGATIVE KONTINGENZ
RESPONDINGDECREASES
6. STIMULUSKONTROLLE = Ein Phänomen, bei dem die Wahrscheinlichkeit einer Reaktion in Abhängigkeit von den zu diesem Zeitpunkt vorhandenen Reizen variiert. Eine Reaktion unterliegt der Reizkontrolle, wenn ihre Auftretenswahrscheinlichkeit bei Vorhandensein verschiedener Reize unterschiedlich ist.
7. GENERALISIERUNG = Reagieren auf einen Reiz aufgrund eines Trainings mit einem anderen ähnlichen Reiz. Siehe KLASSISCHE Konditionierung oben.
8. DISKRIMINIERUNG = Unterschiedliche Reaktion auf 2 Reize. Beim DISKRIMINIERUNGSTRAINING werden 2 Reize präsentiert: der Verstärker wird in Gegenwart des einen Reizes (S+) präsentiert, aber nicht in Gegenwart des anderen (S-). Siehe KLASSISCHE BEDINGUNG oben.
9. PEAK SHIFT = eine Verschiebung des Generalisierungsgradienten weg von S-. Wenn Versuchspersonen nach einem Training mit einem einzigen Stimulus einen Generalisierungstest erhalten, befindet sich die Spitze des Generalisierungsgradienten am Trainingsstimulus. Wenn die Probanden jedoch ein Diskriminierungstraining mit 2 Reizen erhalten, erfolgt die größte Reaktion während des Generalisierungstests nicht auf S+, sondern auf einen Reiz, der weiter von S- entfernt ist.
10. EXTINCTION = Verstärkung wird abgebrochen. Wenn EXTINCTION zum ersten Mal nach einer Periode der Verstärkung eingeführt wird, gibt es diesen BURST des Ansprechens – dann nimmt die Rate des Ansprechens allmählich ab. Warten Sie bis zum nächsten Tag und setzen Sie das Tier wieder in die Skinner-Box – Sie erhalten eine SPONTANE ERHOLUNG, die der klassischen Konditionierung ähnelt.
11. SPONTANEOUS RECOVERY = die Rückkehr einer gelöschten Reaktion nach einer gewissen Zeit nach dem letzten Löschversuch.
12. PARTIAL REINFORCEMENT EFFECT (PRE) = Je höher der Anteil der Reaktionen ist, die während des Trainings nicht verstärkt werden, desto hartnäckiger ist das Reagieren während der Löschung.
13. FRUSTRATION & EXTINCTION-INDUCED AGGRESSION = Eine Zunahme der Stärke des Verhaltens, die unmittelbar auf die Nicht-Verstärkung einer zuvor verstärkten Reaktion folgt; sie ist die emotionale Reaktion, die durch den Entzug eines erwarteten Verstärkers ausgelöst wird. Unter bestimmten Umständen kann die Frustration so stark sein, dass sie aggressive Reaktionen hervorruft.
Azrin, Hutchinson & Hake (1966) verwendete zwei Tauben, die in einer Skinner-Box platziert wurden – eine wurde in der Ecke festgehalten, so dass sie nicht reagieren konnte, und die andere wurde darauf trainiert, einen Schlüssel zur Verstärkung zu picken. Der Schlüsselpicker ignorierte den anderen grundsätzlich, solange er seine Verstärkung bekam. Als EXTINCTION eingeführt wurde, griff er den Zurückgehaltenen an – FRUSTRATION.
14. NEGATIVE VERSTÄRKUNG & AVOIDANZ
NEGATIVE VERSTÄRKUNG
AVERSIVESTIMULUS
NEGATIVE VERSTÄRKUNG
VERSTÄRKUNG
Studien zur AVOIDANZ stützen sich sowohl auf Verfahren der KLASSISCHEN Konditionierung als auch der INSTRUMENTELLEN Konditionierung.
DISKRIMINIERTE, oder SIGNALISIERTE AVOIDANZ beinhaltet diskrete Versuche.
Ein Versuch beginnt mit der Präsentation eines CS – z. B. eines Tons.
Wenn das Tier die gewünschte Reaktion zeigt, z. B. von einer Seite des Käfigs zur anderen rennt, dann hat es den Schock erfolgreich vermieden = dies wird als AVOIDANCE-Versuch bezeichnet.
Wenn es die gewünschte Reaktion nicht zeigt, erhält es einen Schock. Der Schock bleibt an, bis er die gewünschte Reaktion zeigt. Wenn es die gewünschte Reaktion zeigt, wird der Schock ausgeschaltet = dies wird als ESCAPE-Versuch bezeichnet.
In der Anfangsphase des Trainings sind die meisten Versuche ESCAPE-Versuche. Sobald das Tier lernt, dass der CS den US vorhersagt, werden die meisten Versuche zu AVOIDANCE-Versuchen.
Das beliebteste Gerät, das bei DISCRIMINATEDAVOIDANCE verwendet wird, ist die sogenannte SHUTTLE BOX, ein Käfig, der durch eine gewölbte Tür in zwei Hälften getrennt ist. Jede Hälfte hat einen separaten Drahtgitterboden, durch den wir einen elektrischen Strom leiten können. Das Tier wird in eine Seite der Box gesetzt und der CS wird präsentiert. Wenn das Tier auf die andere Seite des Kastens wechselt, vermeidet es den Schock. Nach einer Art Intervall (z.B. 1 Minute) wird der CS wieder eingeschaltet, und die Ratte muss erneut in die gegenüberliegende Abteilung hinübergehen, um den Schock zu vermeiden.
Die Ratte „pendelt“ also während des gesamten Versuchs zwischen den beiden Seiten der Box hin und her.
15. SIDMAN AVOIDANCE = Ein von Murray Sidman entwickeltes Vermeidungsverfahren, das einen Warnreiz beinhaltet. Ein aversives Ereignis, wie z.B. ein Schock, wird in festen Zeitintervallen (Schock-Schock-Intervall) angesetzt; wenn die Versuchsperson zu irgendeinem Zeitpunkt während dieses Intervalls die geforderte Reaktion zeigt, wird der nächste programmierte Schock um einen festen Zeitraum (das Reaktions-Schock-Intervall) verschoben.
16. WÄHLVERHALTENSEXPERIMENTE = Sehr selten wirkt die Verstärkung auf eine einzelne isolierte Reaktion. Anstatt einfach zu entscheiden, ob wir eine Antwort geben sollen oder nicht, sind wir oft mit einer Wahl zwischen zwei oder mehr Antworten konfrontiert, die jeweils eine Reihe von eigenen Verstärkern haben. Experimente zum Wahlverhalten sind solche, bei denen mehr als eine Antwort gegeben werden kann.
Messen Sie die Reaktion, indem Sie eine RELATIVE RATE OF RESPONDING-Messung für jede Wahl verwenden. Beispiel: Eine Taube wird darauf trainiert, entweder auf Taste A oder auf Taste B zu picken. Die RELATIVE ANTWORTRATE für Taste A entspricht den Antworten auf A geteilt durch die Gesamtzahl der (Antworten auf A plus Antworten auf B)
RELATIVE ANTWORTRATE für Taste A = RA/(RA+RB)
RELATIVE ANTWORTRATE für Taste B = RB/(RA+RB)
Was passiert, wenn die Taube gleich oft auf A und B pickt…., sagen wir 10 Mal auf jeder. Wie hoch ist die RELATIVE REAKTIONSVERHÄLTNIS für die Taste A? 0,5
Wie hoch ist die RELATIVE REAKTIONSVERHÄLTNIS für die Taste B? 0,5
Was passiert, wenn die Taube gleich oft auf A und B…. pickt, z.B. 8 Mal auf A, aber nur 2 Mal auf B?
Wie hoch ist die RELATIVE REAKTIONSVERHÄLTNIS für die Taste A? 0,8
Wie hoch ist die RELATIVE ANTWORTRATE für die Taste B? 0.2
17. HERRNSTEIN’S MATCHING LAW (Herrnstein, 1961) = wenn du die Wahl zwischen mehreren Aktivitäten hast, wird der Prozentsatz der Zeit, die du einer dieser Aktivitäten widmest, dem Prozentsatz der verfügbaren Verstärker entsprechen, die du aus dieser Aktivität gewonnen hast.
Beispiel 1 = WÄHLVERHALTEN EXPERIMENT : beide Schlüssel (A &B) sind auf dem exakt gleichen VI60 Zeitplan. Ergebnis: Die Tauben picken auf beiden Tasten gleich oft und erhalten auf der Taste A genauso viele Verstärkungen wie auf der Taste B – die VERSTÄRKUNGSRATE ist also gleich.
Beispiel 2 = WÄHLVERHALTENSEXPERIMENT: Taste A hat einen VI6min Zeitplan in einer Stunde, wie viele Verstärkungen kann eine Taube maximal erhalten? 10 (weil es 10 6-minütige Intervalle in einer Stunde gibt). KeyB hat einen VI2-Minuten-Fahrplan – wie viele Verstärkungen kann eine Taube in einer Stunde absolut maximal erhalten? 30 (es gibt 30 2-Minuten-Intervalle in einer Stunde). Das ist also das Dreifache der Anzahl, die auf Taste A möglich ist.
Ergebnis: Die Taube passt die Anzahl der Reaktionen an die Wahrscheinlichkeit an, verstärkt zu werden – sie wird auf Taste B dreimal so oft reagieren wie auf Taste A.
18. KONTRASSEFFEKTE = Eine Veränderung der Wirksamkeit eines Verstärkers aufgrund früherer Erfahrungen mit anderen Verstärkern (normalerweise wird ein Verstärker mit einem anderen „verschoben“, der eine andere positive oder negative Valenz hat). Die Auswirkungen einer Belohnungsverschiebung wurden ursprünglich von Crespi nachgewiesen – die Verhaltensveränderungen nach einer Belohnungsverschiebung wurden allgemein als „CRESPI-EFFEKT“ bezeichnet. Eine neuere Studie wurde von Mellgren (1972) durchgeführt.
Mellgren führte Gruppen von Ratten auf einer Laufbahn
Während Phase 1– Gruppe 1 und 2 bekamen jedes Mal, wenn sie die Laufbahn hinunterliefen, 2 Futterpellets. Gruppe 3 & 4 bekam 22 Futterkügelchen.
In Phase 2 wurde die Hälfte der Ratten „verschoben“. Also Gruppe 1 = blieb gleich und bekam 2 Pellets (Klein-Klein); Gruppe 2 = wurde nach oben verschoben und bekam 22 Pellets (Klein-Groß); Gruppe 3 = blieb gleich und bekam 22 Pellets (Groß-Groß); und Gruppe 4 = wurde nach unten verschoben und bekam 2 Pellets (Groß-Klein)
Ergebnisse:
Die Gruppe Klein-Klein veränderte sich nicht sehr
Die Gruppe Groß-Groß veränderte sich nicht sehr.
Die Ratten, die von einer kleinen auf eine große Belohnung umgestellt wurden, liefen jedoch schneller für die große Belohnung als die, die die ganze Zeit die große Belohnung erhalten hatten. Dies wird als POSITIVER VERHALTENSKONTRAST bezeichnet – ein POSITIVER VERHALTENSKONTRAST ist also definiert als erhöhtes Reagieren auf eine günstige Belohnung aufgrund früherer Erfahrungen mit einem weniger attraktiven Ergebnis.
Und Ratten, die von einer großen auf eine kleine Belohnung umgestellt wurden, liefen langsamer für die kleine Belohnung als die, die die ganze Zeit die kleine Belohnung erhalten hatten. Dies wird als NEGATIVER VERHALTENSKONTRAST bezeichnet – ein NEGATIVER VERHALTENSKONTRAST ist also definiert als gedämpftes Reagieren auf eine ungünstige Belohnung aufgrund früherer Erfahrungen mit einem besseren Ergebnis.