Het menselijk geheugen - Ghent University Library

advertisement
Tom Mahy
Master Wijsbegeerte
Studentennummer: 20054046
Het menselijk geheugen:
Metaforen doorheen de geschiedenis.
Een vergelijking tussen de computermetafoor en
connectionistische modellen.
Universiteit Gent
Academiejaar 2008-2009
Promotor: Prof. Dr. Tom Verguts
“Mais, quand d’un passé ancien rien ne subsiste, après la mort des êtres, après la destruction
des choses, seules, plus frêles mais plus vivaces, plus immatérielles, plus persistantes, plus
fidèles, l’odeur et la saveur restent encore longtemps, comme des âmes, à se rappeler, à
attendre, à espérer, sur la ruine de tout le reste, à porter sans fléchir, sur leur gouttelette
presque impalpable, l’édifice immense du souvenir.
Et dès que j’eus reconnu le goût du morceau de madeleine trempé dans le tilleul que me
donnait ma tante (quoique je ne susse pas encore et dusse remettre à bien plus tard de
découvrir pourquoi ce souvenir me rendait si heureux), aussitôt la vieille maison grise sur la
rue, où était sa chambre, vint comme un décor de théâtre.”
Marcel Proust
1|Page
Dankwoord
Volgende personen wil ik hartelijk danken voor hun bijdrage aan mijn masterproef.






Mijn promotor Prof. Dr. Tom Verguts die me veel vrijheid gaf en tegelijk altijd klaar stond om
me te helpen met het oplossen van problemen.
Mijn lezers, Prof. Dr. Erik Weber en Prof. Dr. Joke Meheus, die me geholpen hebben bij het
formeel in orde brengen van het geheel.
Mijn ouders voor hun uitgebreid verbeterwerk.
Emilie Vanmeerhaeghe die veel praktische vragen beantwoordde en altijd bereid was hulp te
bieden.
Willem De Greve, voor het citaat van Marcel Proust, dat heel mooi het fascinerende karakter
van het geheugen weergeeft.
Mijn vrienden die nooit zomaar aannemen wat ik hen vertel, zodat ik gedwongen word na te
denken over mijn eigen standpunten.
2|Page
Inhoudsopgave
Dankwoord .......................................................................................................................................... 2
I.
Inleiding ........................................................................................................................................... 5
1)
Motivatie ..................................................................................................................................... 5
2)
Vraagstelling ................................................................................................................................ 6
3)
Literatuurstudie ........................................................................................................................... 7
4)
Structuur ...................................................................................................................................... 8
II.
Metaforen voor het geheugen doorheen de tijd ............................................................................ 9
1)
Het nut van de metafoor ............................................................................................................. 9
2)
De Oudheid................................................................................................................................ 11
3)
De eerste mechanische modellen van het geheugen ............................................................... 17
4)
De romantiek ............................................................................................................................. 22
5) Nieuwe geheugenmetaforen onder invloed van de technologische revolutie. The Fysiological
Turn. .................................................................................................................................................. 23
6)
Ebbinghaus en de kwantitatieve benadering ............................................................................ 26
7)
William James ............................................................................................................................ 27
20ste eeuwse ontwikkelingen ..................................................................................................... 31
III.
1)
Behaviorisme ............................................................................................................................. 31
2)
Cognitivieve wetenschappen .................................................................................................... 33
3)
De computer .............................................................................................................................. 35
a)
Alan Turing, het ontstaan van de moderne computer .......................................................... 36
b)
Jerry Fodor’s antwoord op Descartes’ dualisme ................................................................... 39
c)
Het model van Atkinson en Shiffrin (1968) ........................................................................... 39
d)
Het werkgeheugen ................................................................................................................ 44
e)
Psychologische experimenten ............................................................................................... 47
f)
Het evolueren van de modellen ............................................................................................ 49
4)
IV.
1)
Een nieuwe benadering: het connectionisme ........................................................................... 51
a)
Het hologram......................................................................................................................... 52
b)
Neurale netwerken................................................................................................................ 53
c)
De Connectionistische revolutie............................................................................................ 56
Een connectionistisch model: Tracelink .................................................................................... 62
Amnesie en de biologie van het brein ....................................................................................... 62
3|Page
2)
V.
Een voorbeeld van een connectionistisch model voor het geheugen ...................................... 68
Conclusie ....................................................................................................................................... 73
Bibliografie ........................................................................................................................................... 74
4|Page
I.
Inleiding
1) Motivatie
Ik ben aan mijn studie filosofie begonnen van uit een nogal wetenschappelijke achtergrond. Ik
studeerde wetenschappen wiskunde in de middelbare school en het lag dan ook voor de hand dat ik
een wetenschappelijke universitaire richting zou volgen. De wetenschap boeide me echter zeer
weinig. Hoewel ik nu van mening ben dat fascinatie onvermijdelijk volgt uit het begrijpen van
wetenschap, moet ik toen door andere dingen gefascineerd geweest zijn. Ik zag niet veel meer dan
het hersenloos van buiten leren van theorieën die ergens ver boven de wereld zweefden. Toen ik
filosofie ging studeren ging een nieuwe wereld voor mij open. We haalden de wetenschap uit haar
ivoren toren en plaatsten ze in de wereld en in de geschiedenis. Na het lezen van Thomas Kuhn en
het bestuderen van mislukte en gelukte wetenschappelijke theorieën doorheen de tijd, begon mijn
fascinatie gradueel toe te nemen. Ik voelde me namelijk wel al filosoof, maar om kritiek te leveren
moet men iets afweten van datgene dat men bekritiseert. Ik koos dus een minor wetenschappen, die
vervolgens voortvloeide in een minor biologie. Dat bracht me bij de menselijke hersenen. Het hele
menselijke lichaam werkt op een enorm ingenieuze manier. Op het niveau van de fysiologie weten
we al behoorlijk veel. De hersenen vormen hierop een uitzondering. Door de combinatie van
biologische teksten over de anatomie en fysiologie van het brein en filosofische teksten over de mind
en het bewustzijn groeide mijn interesse nog meer. Het leek me het ultieme vraagstuk in een voor de
rest relatief voorspelbare wereld. Ik denk nogal deterministisch en het leek me vanzelfsprekend dat
de mens, en dus ook zijn geest, werkt zoals een machine. Evolutie heeft ons stukje per stukje
gevormd tot wat we nu zijn. Daar kwam niets mysterieus aan te pas. Laagje per laagje breidden onze
hersenen uit met evolutionair nuttige gevolgen van toevallige mutaties. Het is alsof je een computer
bouwt maar dan over een heel lange tijd en op een heel onefficiënte manier. Het grote vraagstuk is
dan natuurlijk hoe dat bewustzijn zijn intrede heeft gedaan. Het is dit vraagstuk dat me meer richting
psychologie gestuwd heeft. Ik ontdekte dat men in de psychologie meer onderwees dan enkel Freud
(een of ander vooroordeel dat ik ergens opgedaan moet hebben) en begon enkele vakken te volgen.
Ik kwam erg toevallig terecht in het vak ‘modellering van cognitieve processen’. De naam van het vak
sprak mij aan. Het leek me logisch, gezien het voorgaande, dat onze cognitieve processen
gemodelleerd kunnen worden. Dit vak had echter veel minder weg van het schrijven van
computerprogramma’s dan ik gedacht had. Ik maakte kennis met het connectionisme. Deze stroming
beweert dat intelligent gedrag kan voortvloeien uit netwerken van eenvoudige units die een
5|Page
variabele invloed op elkaar uitoefenen. Het deed me denken op wat Daniel Dennett een ‘army of
idiots’ noemde. Een onderdeeltje van dat netwerk is niets op zichzelf, maar het samenspel van al die
onderdeeltjes heeft een van de indrukwekkendste verschijnselen in dit universum tot gevolg. Gezien
de gelijkaardige, chaotische anatomie van ons brein en de eenvoud waarmee deze simpele
netwerken tot spectaculaire resultaten leiden, was mijn interesse onmiddellijk gewekt. In het vak
bestudeerden we enkele papers. Elke paper handelde over de simulatie van een cognitief proces:
taalverwerving, cognitieve controle, geheugen, ...
Wie even doordenkt over het fenomeen geheugen is vrijwel meteen gefascineerd. Er is een hele
reeks merkwaardige verschijnselen die we allemaal kennen, maar waarvoor zich niet meteen een
verklaring aandient. Zo is er bijvoorbeeld het gevoel dat er iets op het puntje van onze tong ligt. We
weten dat we het weten of geweten hebben, maar het juiste antwoord komt maar niet. Vaak denken
we de hele tijd aan een ander woord en elke poging het juiste woord te recuperen wordt door dit
ander woord gesaboteerd. Later kan het dan opduiken wanneer we aan iets helemaal anders aan het
denken waren. Een andere interessante vaststelling is hoe feilbaar ons geheugen kan zijn. We
kunnen ons levendig iets voor de geest halen uit onze kindertijd, terwijl onze ouders ontkennen dat
deze gebeurtenis ooit heeft plaatsgevonden. Deze en meer mysteries van het geheugen hebben me
aangezet me specifiek met dit domein van de menselijke cognitie bezig te houden. Tot mijn grote
vreugde heb ik zelfs enkele antwoorden weten te bemachtigen op bovenstaande vragen.
2) Vraagstelling
De vragen die hier beantwoord zullen worden zijn niet nieuw. We bekijken als het ware een
vraagstuk en de mogelijke oplossing daarvan door de eeuwen heen. De mooiste manier waarop ik
het vraagstuk geformuleerd heb gezien was in een paper van Jack Marr, getiteld Memory – Models
and Metaphors. Marr vergelijkt het probleem van het geheugen met het action at a distance
probleem waarmee Newton geconfronteerd werd. Newton’s theorie impliceerde dat alle objecten
een kracht op elkaar uitoefenen, ook wanneer ze elkaar niet raken. Er moet dus een kracht
uitgeoefend worden over een bepaalde afstand met zo’n onmiddellijkheid dat een materiële
mediëring onmogelijk lijkt. Het is als een soort bovenaardse communicatie. Newton gaf deze functie
aan de alomtegenwoordige ether. Marr beschrijft het probleem van het geheugen nu als action at a
temporal distance en de geschiedenis van geheugentheorieën ziet hij als de zoektocht naar een
‘mentale ether’ (Marr, 1983, p. 13). We moeten immers proberen verklaren hoe bepaalde
6|Page
gebeurtenissen invloed kunnen uitoefenen op gebeurtenissen die er temporeel totaal van
gescheiden zijn. Als ik vandaag te weten kom dat Jan gelogen heeft tegen mij, dan kan dat morgen
mijn gedrag tegenover hem beïnvloeden. Wat is het dat deze afstand overbrugt? Welk deel van mijn
eerste ervaring is blijvend aanwezig zodat ze mijn tweede ervaring kan beïnvloeden? En vooral,
welke materiële equivalenten van deze gebeurtenissen zorgen juist voor de mediëring? Of gebeurt
dit niet op een materiële manier? Het zijn vragen die men zich gedurende de hele westerse filosofieen wetenschapsgeschiedenis heeft gesteld. Deze paper bespreekt een greep uit de verschillende
antwoorden die erop geformuleerd zijn.
3) Literatuurstudie
Voor het eerste deel van deze masterpaper heb ik dankbaar gebruik gemaakt van een boek van de
Nederlandse geheugenpsycholoog Douwe Draaisma. Het boek is getiteld ‘De Metaforenmachine’ en
het is een onderzoek naar de verschillende theorieën die over het menselijk geheugen bestaan
hebben doorheen de tijd. Draaisma doet dit aan de hand van metaforen. Reeds in de oudheid had
men door dat het gebruik van een metafoor een erg handig hulpmiddel was bij het overbrengen van
ingewikkelde theorieën. De hele geschiedenis door is men de metafoor blijven gebruiken. Draaisma
begint zijn boek dan ook met een studie van dit hulpmiddel om het dan voor de rest van het boek
zelf te gebruiken. Maar hij is uiteraard niet de enige die oude geheugentheorieën bestudeert. Een erg
interessant boek was ‘Philosophy and memory traces: Descartes to connectionism’ van de filosoof
John Sutton. Op een erg overtuigende manier brengt hij een interpretatie van Descartes’ werk die
allesbehalve algemeen aanvaard is. Onderdeel II.3 over de mechanische modellen van het geheugen
heb ik dan ook voor het grootste deel aan dit boek te danken.
Verder heb ik gebruik gemaakt van een hele reeks boeken, papers en overzichtswerken, waarvan
vooral de volgende belangrijk waren:

‘Human Memory – An Introduction to Research, Data and Theory’ van Ian Neath

‘De Mens van Turing’ van David Bolter

‘Connectionism and the mind’ van Bechtel en Abrahamsen

‘Memory and the hippocampus’ van Larry Squire

‘Tracelink: a model of consolidation and amnesia’ van Meeter en Murre
Voor meer informatie over deze en andere bronnen verwijs ik naar de bibliografie op pagina 74.
7|Page
4) Structuur
Deze paper is in grote lijnen chronologisch opgebouwd. Na deze inleiding volgt een groot deel dat
begint met een korte uiteenzetting over de metafoor. Vervolgens worden de geheugentheorieën,
vanaf de oudheid tot vlak voor de 20ste eeuw, behandeld. William James en Hermann Ebbinghaus
worden besproken als kritische figuren op de grens tussen 19de en 20ste eeuw, tussen deel II en deel
III. Deel III handelt over de 20ste eeuw en het ontstaan van het modern geheugenonderzoek. In
onderdeel III.3 wordt het chronologisch pad verlaten. Eerst bespreken we het ontstaan van de
moderne computer en vervolgens de invloed die deze gebeurtenis heeft uitgeoefend op de
geheugenpsychologie. Onderdeel III.4 loopt in de tijd ongeveer parallel met III.3, maar hier
bespreken we een alternatieve benadering, namelijk het connectionisme. In deel IV gaan we iets
dieper in op een specifiek geheugenmodel binnen het connectionistische paradigma. De biologie van
het brein zal hier een belangrijke rol spelen. Ook daar wordt dieper op ingegaan in deel IV. Deel V
bevat mijn conclusie.
8|Page
II.
Metaforen voor het geheugen doorheen de tijd
1) Het nut van de metafoor
Douwe Draaisma (1995) gaat in zijn boek ‘De Metaforenmachine’ op reis doorheen de tijd. Het is een
onderzoek naar de verschillende theorieën die bestaan hebben over het geheugen. Draaisma maakt
hiervoor gebruik van de metafoor. Van bij Plato tot op de dag van vandaag werden immers
voortdurend metaforen gehanteerd om ons geheugen te beschrijven. Voorbeelden zijn wasborden,
duivenhokken, boeken, kamers, wouden, labyrinthen, fotografische platen, computers, …
Het gebruik van zulke analogieën is, volgens Draaisma, erg nuttig om verschillende redenen. Ten
eerste is het een retorisch en heuristisch hulpmiddel (Draaisma, 1995, p. 19). Ingewikkelde theorieën
kunnen via metaforen en vergelijkingen op een erg heldere manier worden weergegeven. Het is als
het ware een vertaling. Dat wat ons onvatbaar of mysterieus voorkomt wordt uitgelegd in termen
van wat ons bekend is. Draaisma neemt Freud als voorbeeld. Freud maakte in zijn teksten
voortdurende gebruik van zo’n beeldspraak die de complexe samenstelling van de menselijke geest
moest verduidelijken. Hij is dan ook een fervent verdediger van dit hulpmiddel (Draaisma, 1995, p.
19). Een technische uitleg, vertelt Draaisma, is te vinden in The Philosophy of Rhetoric van Richards
(Draaisma, 1995, p. 22). Deze onderscheidt in elke metafoor twee elementen: een topic term en een
vehicle term. De topic term is het te verduidelijken fenomeen, waarop de betekenis van de vehicle
term wordt overgedragen. Een voorbeeld dat we zelf kunnen bedenken is: ‘Liefde is als een bloem
die langzaam openbloeit en weer verwelkt’. Hier is ‘liefde’ de topic term, nl. het onderwerp van de
metafoor. ‘Een bloem die langzaam openbloeit en weer verwelkt’ is de vehicle term. Het is een voor
ons herkenbaar beeld. De familiaire betekenis van dat concrete beeld kunnen we nu overdragen op
het abstracte begrip ‘liefde’. Dit verbetert ons begrip.
Vervolgens vermeldt Draaisma Black, die in navolging van Richards metaforen als een interactie zag
tussen topic en vehicle term (Draaisma, 1995, p. 24). In een modernere formulering spreekt men van
semantische velden. Elke term heeft zijn eigen semantisch veld. De metafoor creëert een
wisselwerking tussen deze velden, waarbij de aandacht wordt gevestigd op relevante associaties en
onbelangrijke associaties worden genegeerd. Opnieuw een eigen voorbeeld: in ‘Het geheugen is een
labyrinth’ zitten twee termen met elk hun semantisch veld. Het veld van ‘geheugen’ bevat:
herinneren, zoeken, vergeten, quiz, puntje van de tong, alzheimer, kindertijd, … Het veld van
‘labyrinth’ bevat: doolhof, ingewikkeld, verdwalen, zoeken, Ariadne, Alice in Wonderland, … De
9|Page
metafoor filtert alle onbelangrijke informatie eruit en legt de aandacht op wat gemeenschappelijk is
tussen de twee termen, nl. de complexiteit, het vaak tevergeefs zoeken, de uitgestrektheid, …
Een gevolg van de heuristische en retorische waarde van metaforen is wat Draaisma de
‘Commeniusfunctie’ of de educatieve functie van de metafoor noemt. Literatuurstudies tonen aan
dat metaforen vandaag en doorheen de geschiedenis wijd verspreid zijn, zowel in populaire als in
wetenschappelijke literatuur. Een experiment van Reynolds en Schwartz, dat door Draaisma
besproken wordt, waarbij proefpersonen korte tekstjes moesten van buiten leren wijst erop dat
verhaaltjes die eindigen met een samenvattende metaforische zin beter worden onthouden dan
dezelfde verhaaltjes die eindigen met een gewone samenvattende zin (Draaisma, 1995, pp. 29-30).
Zoals eerder vermeld houdt het gebruik van metaforen vaak een vertaling in naar een begrijpelijkere
en ‘meer zichtbare’ taal. Van abstract naar concreet. Aangenomen dat het menselijk geheugen beter
werkt voor concrete beelden, wordt de Commeniusfunctie duidelijk. Die aanname is overigens erg
plausibel. Verschillende experimenten tonen aan dat beelden beter herinnerd worden. Er kan als het
ware meer informatie aan gekoppeld worden dan aan verbale stimuli (infra).
Problemen met het gebruik van de metafoor:
Problemen ontstaan bij wat Draaisma, zoals Black, substitutie-metaforen noemt (Draaisma, 1995,
p. 22). De analogie tussen de metafoor en de te verduidelijken term is nooit een gelijkheid. Het is
steeds intuïtief vatbaar welk deel van de betekenis van de vehicle term toegepast kan worden op de
topic term. Bij ‘de zon is een tomaat’ is duidelijk dat de vergelijking gaat over de kleur van de tomaat
en niet over het vruchtvlees. Soms is een metafoor echter zo handig dat het niet duidelijk is of we
nog van een metafoor mogen spreken. Een verklaring van de topic term komt dan overeen met een
substitutie door de vehicle term. Bepaalde aspecten van de vehicle term worden zo automatisch
toegepast op de topic term. We kunnen hier natuurlijk niet spreken van een echte verklaring.
Draaisma vermeldt bijvoorbeeld cellen van het immuunsysteem die ziekteverwekkers zouden
‘herkennen’. Dat is een metafoor die intuïtief klopt maar tot op vandaag geen verklaring biedt voor
de mechanismen die achter dit ‘herkennen’ schuilen. Een ander, voor ons erg belangrijk voorbeeld, is
de computermetafoor. De computer werd eerst als metafoor gebruikt voor de menselijke geest,
maar langzaam werden de twee met elkaar geïdentificeerd. Draaisma geeft enkele voorbeelden van
processen die door die identificatie verklaard lijken, maar dat natuurlijk helemaal niet zijn:
zoekprocessen in het geheugen, het opslaan van informatie, filteren, … “Het probleem bij veel te
figuurlijk taalgebruik in de psychologie is dat een letterlijk alternatief niet voorhanden is" (Draaisma,
1995, p. 23).
10 | P a g e
Een deel van deze problemen volgt uit de technische definitie die hierboven is gegeven. Bij het
filteren van het semantisch veld van de topic term gaat een boel informatie verloren die relevant zou
kunnen zijn. Zo kan een invloedrijke metafoor ervoor zorgen dat “theoretische noties niet worden
opgemerkt, hypothesen worden veronachtzaamd, relaties aan het oog worden onttrokken,
onderzoeksvragen over het hoofd worden gezien” (Draaisma, 1995, pp. 33-34). Filteren en selecteren
verkleurt en vertekent theorieën, waardoor deze hun objectiviteit verliezen ten bate van hun
helderheid. Bij gevolg kende de geschiedenis ook tegenstanders van de metafoor. Zo voerde de Royal
Society in de tijd van de wetenschappelijke revolutie zelfs een expliciet verbod in op het gebruik van
beeldspraak in wetenschappelijke publicaties (Draaisma, 1995, p. 34).
2) De Oudheid
Draaisma (1995) komt steeds terug op twee erg algemene metaforen waarvan de geschiedenis der
geheugentheorieën doorspekt is. De eerste vergelijkt het geheugen met een opbergruimte. Een
plaats waar je vanalles in kan stoppen, al dan niet gearchiveerd, om het later terug te gaan zoeken.
Instanties van deze algemene metafoor zijn kamers, hokken, bibliotheken en paleizen. Deze legt
vooral de nadruk op de enorme opslagcapaciteit en de zoekmethoden en selecteert hierdoor, zoals
hier boven vermeld, een deel van het semantisch veld dat wij met het geheugen associëren. De
tweede terugkerende metafoor focust zich op een ander gedeelte van dat semantisch veld. Het is de
zegelmetafoor. Een herinnering komt overeen met een afdruk in een blok was, zoals een zegel. Deze
afdruk laat een ‘geheugenspoor’ na.
We vinden deze twee metaforen reeds terug bij Plato. De Theaetetus is een dialoog tussen Socrates
en de jonge Theaetetus. We bespreken een deel van deze dialoog aan de hand van Chappell (2004).
Het gesprek gaat over kennis. Wat is kennis, hoe kunnen we het definiëren. Een eerste voorstel van
Theaetetus, kennis is perceptie, wordt door Socrates weerlegd. De objecten van perceptie kunnen
niet overeen komen met de objecten van het denken. De eerste hebben geen duur, geen
blijvendheid, en van zodra we ze niet meer percipiëren, impliceert die definitie dat ze ook uit ons
denken zouden verdwenen zijn. De voortdurend veranderende impressies die we hebben moeten op
één of andere manier een blijvend spoor nalaten, zodat we er ook wanneer ze er niet meer zijn over
kunnen nadenken. Een volgend voorstel van Theaetetus is dan ook: kennis is true belief. Om dit te
weerleggen splitst Socrates zijn argument op in 5 puzzels. Hij geeft vijf empirische mogelijkheden
11 | P a g e
voor het bestaan van false belief en weerlegt ze één voor één (Chappell, 2004, p. 152). In de vierde
puzzel voert Plato, via Socrates, de metafoor van het wastablet in:
“SOCR. Doe me dan het genoegen, omwille van de discussie, aan te nemen dat wij in onze ziel een blok
was hebben. Bij de ene zal die groter, bij de andere kleiner zijn. Bij de ene zal de was zuiverder zijn, bij
de andere minder zuiver, harder bij sommigen, bij sommigen vloeibaarder, bij enkelen juist van pas.
THEAET. Inderdaad
SOCR. Wel, laten we dan zeggen dat het een geschenk is van Mnemosyne, de moeder van de Muzen.
Alles wat wij ons wensen te herinneren van wat we zagen of hoorden of zelf bedachten, drukken we
daarin af, door dat blok onder onze waarnemingen en gedachten te houden: ongeveer zoals we een
zegel van een ring in de was drukken. Wat we er nu in afgedrukt hebben, herinneren we ons en
kennen we zolang het beeld in de was bewaard blijft. Wat echter uitgewist wordt of wat onmogelijk
kon ingedrukt worden, raakt vergeten of blijft ongekend.” (Plato, 1999, p. 423)
Deze wastabletmetafoor kan verschillende eigenschappen van het geheugen verklaren. Het is niet zo,
zoals bij de opbergruimte, dat datgene wat herinnerd wordt zelf in het geheugen wordt opgeslagen.
Hier gaat het over een representatie, een afdruk van datgene dat we waargenomen hebben. Deze
representatie kan foutief zijn. Dit verklaart waarom we verkeerde herinneringen hebben. Als het
geheugen een opbergplaats was waarin we al onze percepties onmiddellijk kwijt konden, dan zou het
onfeilbaar zijn, een beetje zoals dat van een computer. Hoe graag we ook zouden willen dat we
sommige dingen, zoals boeken, objectief en integraal zouden kunnen opslaan, dat is niet wat in de
realiteit gebeurt. Opslaan van informatie gaat steeds gepaard met persoonlijke interpretatie ervan.
Plato brengt dit in rekening door te stellen dat de blok was die hij in de geest van elke mens situeert
verschilt van persoon tot persoon. Iemand met een grotere blok heeft een grotere
geheugencapaciteit. Iemand die over een te harde wasblok beschikt kan amper informatie opslaan
omdat ze geen afdruk nalaat. En op die manier kunnen we de verschillende geheugencapaciteiten
van verschillende personen uitleggen. Aristoteles nam deze metafoor van Plato over in zijn ‘De
memoria et reminiscentia’. Hij gebruikte ze om het slechtere geheugen van oud en jong te verklaren:
“… for the movement produced stamps almost a sort of impression of the sense-impression, similar to
what is done by people using their seals. This is also the reason why those who are in much movement
because of an affection or because of age do not come to have memory, as though the movement
produced by sensation and the seal were impinged on running water, while others do not receive the
impression because of damage in that which is receiving the affection – similar to the damage of old
walls in buildings – and because of the hardness in it. Therefore, both the very young and old people
have weak memories: for the former are fluctuating because of growth, the latter because of decay.
Similarly neither those people that are too quick-witted nor those that are too slow-witted seem to
possess a good memory: the former are moister than what is needed, the latter are harder; thus the
image does not remain in the soul of the former, while it does not make real contact with the latter.”
(Aristoteles, zoals geciteerd in Bloch, 2007, p. 31)
Later in de Theaetetus weerlegt Plato echter zijn eigen theorie (Chappell, 2004, pp. 178-179). De
wastablet theorie werd ingevoerd om aan te tonen dat mensen valse meningen (false belief) kunnen
12 | P a g e
hebben. De metafoor werkt voor fouten die we maken tussen wat we waarnemen en wat we
denken. De afdruk die ik van Pieter in mijn blok was heb kan onbetrouwbaar zijn zodat ik op straat
Jan verwar voor Pieter. Problemen ontstaan echter bij fouten tussen objecten van het denken,
bijvoorbeeld wiskundige fouten. Volgens Plato heeft wiskunde niets met waarneming te maken.
Wiskundige objecten komen eerder overeen met afdrukken die reeds van bij onze geboorte in het
wastablet stonden. In de realiteit maken mensen voortdurend fouten in de wiskunde. Hierdoor blijkt
dit model te kort te schieten (Chappell, 2004, p. 179).
Het wastablet toont aan hoe populair het gebruik van externe geheugens geweest is als metafoor
voor het geheugen. Draaisma bevestigt dit: “Vanaf het begin – dat wil zeggen: vanaf het wastablet –
is het menselijk herinneren en vergeten beschreven in termen die ontleend werden aan prothetische
geheugens” (Draaisma, 1995, p. 39). Met extern of prothetisch geheugen wordt bedoeld alle
technieken en uitvindingen die gediend hebben om ons geheugen te ondersteunen: boeken,
fonografen, computers, herinneringen in onze gsm, … Het grootste deel van de metaforen die ik hier
bespreek zijn dan ook externe geheugens. Het is verleidelijk om hier een wetenschappelijke
vooruitgang in te zien. Dat er een sterke vooruitgang bestaat in technologie valt niet te betwijfelen.
Externe geheugens worden dus steeds complexer en zo ook de beschikbare metaforen voor ons
geheugen. We zijn dus in staat complexe geheugentheorieën intuïtief te vatten omdat er een
analogie bestaat met een alledaags voorwerp, bijvoorbeeld de computer. Bepaalde theorieën
werden dan ook slechts populair toen er een duidelijke metafoor ingevoerd werd.
Maar eerst terug naar de oudheid, waar men nog nooit van computers had gehoord en het moest
doen met een wastablet. Na zijn weerlegging van die metafoor, gaat Plato, door middel van een
vijfde puzzel, in op die andere algemene metafoor waarover we het reeds hadden: de opbergruimte.
Hier heeft ze de vorm van een duivenhok:
“SOCR. Zie dan ook of het mogelijk is op dezelfde wijze kennis te bezitten zonder ze te hebben. Het
zou dan lijken op iemand die wilde vogels, duiven bijvoorbeeld of andere, zou hebben gevangen, en
die thuis een duivenhok in elkaar zou hebben geknutseld waarin hij die dieren houdt. Van hem kunnen
we zeggen, denk ik, dat hij ze in zekere zin altijd ‘heeft’, omdat hij ze ‘bezit’. Is het niet?
THEAET. Ja.
SOCR. In een andere zin echter kunnen we zeggen dat hij er geen enkele ‘heeft’, maar dat hem enkel
een vermogen ten opzichte van die vogels te beurt is gevallen, omdat hij ze in een eigen omheining in
het bereik van zijn handen heeft gebracht. Hij is immers bij machte hen te grijpen en te ‘hebben’
telkens als hij het wil: hij vangt telkens de vogel die hij verlangt, laat hem weer los, en dit kan hij doen
zo dikwijls hij het goed vindt.
THEAET. Dat is zo.
SOCR. Dan moeten we nogmaals aan het werk. Vroeger boetseerden we in de ziel ik weet niet welk
wassen model; nu gaan we in elke ziel een soort van duivenhok maken met vogels van diverse
13 | P a g e
pluimage: sommige soorten leven in grote troepen, afgezonderd van de andere; andere in kleine
groepen; enige leven op hun eentje en vliegen door alle andere heen, op goed geluk.
THEAET. Goed. Laten we aannemen dat er mee klaar zijn. En dan?
SOCR. Zolang we nog kleine kinderen zijn, moeten we zeggen, die kooi is leeg, en daarbij moeten we,
in plaats van aan vogels, aan kennissen denken. Als iemand nu een kennis opdoet en in de afsluiting
onderbrengt, zullen we zeggen dat hij iets geleerd heeft <van anderen> of <zelf> iets ontdekt heeft:
namelijk het ding waarop die kennis betrekking heeft. En dat is kennis.” (Plato, 1999, p. 432)
Hier wordt dus een onderscheid gemaakt tussen kennis bezitten en kennis hebben. Met dat laatste
wordt bedoeld dat ze actief aanwezig is, alsof ik de duif in mijn handen heb. Kennis bezitten wil
zeggen dat de duif ergens in mijn mentaal duivenhok aanwezig is, maar dat ik ze momenteel niet
gebruik. Zo is het probleem van foutief herinneren niet meer te wijten aan foutieve afdrukken, maar
wel aan een fout in ophaling. We halen de verkeerde duif uit het hok. Plato wou hiermee de
mogelijkheid tot wiskundige fouten invoeren waarmee het wastabletmodel te kampen had
(Chappell, 2004, p. 184). Als iemand antwoordt dat 6+9 gelijk is aan 14 dan wil dat niet zeggen dat
die som verkeerd is opgeslagen (wiskundige afdrukken zijn immers aangeboren), maar dat de som
verkeerdelijk 14 activeert en niet 15. De fout wordt dus verlegd van de opslag naar de ophaling. Deze
problemen zijn niet enkel eigen aan Plato’s werk. Aangezien vele latere metaforen instanties zijn van
de zegel- of de opbergruimtemetafoor hebben ze te kampen met dezelfde problemen. En ook
vandaag nog is er discussie over de oorzaak van vergeten of foutief herinneren.
In Chappell’s interpretatie van de Theaetetus is het invoeren van deze metafoor echter een
onderdeel van een vijfde puzzel over false belief. Deze interpretatie wordt uiteindelijk, net als de
andere door Plato weerlegd (Chappell, 2004, p. 189).
De opslagplaatsmetafoor kwam pas echt tot zijn recht in de Belijdenissen van Augustinus. Hij wil
vooral de onmetelijkheid en het mysterie van het geheugen benadrukken en hij doet dat op een heel
lyrische manier:
“I will therefore rise above the natural capacity in a step by step ascent to him who made me. I come
to the fields and vast palaces of memory, where are the treasuries of innumerable images of all kinds
of objects brought in by sense-perception. Hidden there is whatever we think about, a process which
may increase or diminish or in some way alter the deliverance of the senses under whatever else has
been deposited and placed on reserve and had not been swallowed up and buried in oblivion. When I
am in this storehouse, I ask that it produce what I want to recall, and immediately certain things come
out; some things require a longer search, and have to be drawn out as it were from more recondite
receptacles. Some memories pour out to crowd the mind and, when one is searching and asking for
something quite different, leap forward into the centre as if saying 'Surely we are what you want?'
With the hand of my heart I chase them away from the face of my memory until what I want is freed
of mist and emerges from its hiding places. Other memories come before me on demand with ease
and without any confusion in their order. Memories of earlier events give way to those which
followed, and as they pass are stored away available for retrieval when I want them. All that is what
happens when I recount a narrative from memory.” (Augustinus, 1998, p. 185)
14 | P a g e
Roland Teske, die in The Camebridge Companion to Augustine een hoofdstuk over het geheugen
schrijft, vertelt ons dat het hele boek Belijdenissen een uitgebreide zoektocht naar God is (Teske,
2001). Wanneer Augustinus deze niet vindt in de externe wereld of via de zintuigen richt hij zich op
het geheugen. Augustinus ziet het geheugen niet alleen als de opslagruimte voor ervaringen uit het
verleden. Ook het plannen van toekomstige activiteiten en het in gedachten houden van het heden
vereisen geheugen (Teske, 2001, p. 148). Naast wat we waargenomen hebben met onze zintuigen
bevat ons geheugen ook logica en wiskunde, vaardigheden en de ‘affecties van de ziel’ (Teske, 2001,
pp. 151-152). Deze emoties zijn bij herinnering op een andere manier in ons aanwezig dan bij de
ervaring ervan zelf. We kunnen ons de emotie verdriet herinneren zonder zelf verdriet te voelen.
Hier vergelijkt Augustinus het geheugen aan deze emoties met “the mind’s stomach” (Teske, 2001, p.
152). Een plaats waar ze wel opgeslagen, maar niet ‘gesmaakt’ worden, om dan later eventueel
opgehaald te worden indien nodig.
Het beeld van de ‘velden en paleizen’ van het geheugen spreekt erg tot de verbeelding. Augustinus
heeft geen enkel probleem met plaatsgebrek aangezien de geest voor hem geen ruimtelijke
uitgestrektheid heeft (Draaisma, 1995, p. 79). Teske toont via een citaat uit de Belijdenissen hoe die
uitgestrektheid noodzakelijk is voor het waarnemen in ons geheugen van uitgebreide taferelen, zoals
landschappen en oceanen. Deze gigantische beelden moeten in even grote ruimten waargenomen
kunnen worden in ons geheugen als in de realiteit (Teske, 2001, p. 151). De metafoor die Augustinus
gebruikt slaat dus niet meteen op de materiële omvang van ons geheugen, het herinneren van een
oceaan maakt ons hoofd niet groter. Hij heeft het over een faculteit van de ziel en kan deze zo groot
en complex maken als hij wil zonder, zoals gezegd, te kampen met het probleem van het
plaatsgebrek. Hij kan herinneringen wegstoppen in grote kamers, in geheime gangen, in spelonken
van grotten die zich in gigantische landschappen bevinden, dat alles afhankelijk van hoe moeilijk het
is een herinnering op te halen. Foutieve herinneringen zijn te wijten aan problemen bij het ophalen,
we verdwalen in dat gigantische paleis tijdens onze zoektocht naar een goed verborgen gang. Die
hele tijd liggen de objecten van onze zoektocht wel ergens in dat paleis, ze zitten in ons geheugen,
maar we vinden ze niet.
Maar Augustinus verwijst ook voortdurend naar het geheugen als een zintuigelijk afdruk zoals bij
Aristoteles (Draaisma, 1995, p. 45). De zintuigen brengen informatie binnen en laten afdrukken na
die opgeslagen worden in alle uithoeken van het paleis van ons geheugen. De verschillende
zintuigelijke modaliteiten blijven ook gescheiden in het geheugen, “beelden bij beelden, geluiden bij
geluiden, geuren bij geuren” (Draaisma, 1995, p. 44).
15 | P a g e
Bij Augustinus zien we in feite de vereniging van de twee metaforen die we in het begin van dit
onderdeel introduceerden. Zintuigelijke waarneming laat een afdruk na en die afdruk wordt
vervolgens opgeborgen. Het helderste voorbeeld hiervan is een bibliotheek. Draaisma vermeldt ook
de saculi. Dat zijn geldbuidels waarin de verschillende munten per soort gerangschikt werden. Ook
dit werd ooit als metafoor voor het geheugen gebruikt, door Hugo van St. Victor in de twaalfde
eeuw. De munten komen overeen met een afdruk van een waarneming, een herinnering, en zij
worden soort bij soort bewaard in de buidel, ofte de opbergplaats van ons geheugen (Draaisma,
1995, p. 47).
Augustinus sluit uiteindelijk zijn zoektocht naar God in zijn enorme geheugen tevergeefs af (Teske,
2001, p. 154). Wel besluit hij dat alle mensen streven naar een gelukkig leven en dat streven
identificeert hij met de zoektocht naar God. Allen hebben dus een beeld in hun geheugen van wat
een gelukkig leven is en moeten dat leven dus ooit geleefd hebben, opdat het deel van hun
geheugen zou kunnen uitmaken.
Plato en Aristoteles, met in hun voetsporen Augustinus, waren de stichters van wat later het
associationisme genoemd zou worden. Dat is een theorie die zegt dat herinneringen, of meer
algemeen, ideeën elkaar via associatie opvolgen in het bewustzijn. Aristoteles formuleerde drie
wetten van associatie. De wet van nabijheid zegt dat gebeurtenissen die dicht bij elkaar liggen in
ruimte of tijd met elkaar geassocieerd zullen worden. De wet van gelijkenis zegt hetzelfde over
gebeurtenissen die op elkaar lijken en de wet van contrast verbindt contrasterende gebeurtenissen.
Het associationisme zou pas tot zijn volledige ontwikkeling komen bij de Britse empiristen Thomas
Hobbes, John Locke en David Hume. Bovendien hebben deze ideeën invloed uitgeoefend tot in de
20ste eeuw en hebben ze aanleiding gegeven tot het connectionisme, een stroming die de dag van
vandaag alomtegenwoordig is.
16 | P a g e
3) De eerste mechanische modellen van het geheugen
Het intellectuele establishment in de Middeleeuwen was natuurlijk de kerk. Maar de meeste
theorieën waren niet meer dan een voetnoot bij de filosofen van de oudheid. De dominante
fysiologische theorie over het geheugen was er één die reeds in de 2de eeuw was opgesteld door
Galenus. Herinneringen lagen opgeslagen in het 4de ventrikel in de hersenen, waardoor een vluchtige
stof, spiritus animales, stroomt (Draaisma, 1995, p. 41). Er werd erg veel aandacht besteed aan het
ontwikkelen van mnemonische technieken, een traditie die in de oudheid ontstond met de Griek
Simonides van Keos en later in Cicero’s De Oratore werd uitgewerkt (Draaisma, 1995, p. 57). De grote
denkers zoals Thomas van Aquino werden dan ook geprezen omwille van hun eindeloos geheugen.
Zo zou Thomas in staat geweest zijn 3 tot 4 boeken tegelijk te dicteren. Het was een tijd waarin het
boek als metafoor gebruikt werd voor het geheugen. Boeken hadden toen nog niet de status van
extern geheugen die ze de dag van vandaag hebben. Het waren zeldzame objecten, ze werden dus
eerder van buiten geleerd en wie belangrijke boeken uit het hoofd kon opzeggen stond hoog in
aanzien. Alles veranderde met de uitvinding, of meer bepaald de heruitvinding, van de
boekdrukkunst rond 1500. Volgens Draaisma draagde dit bij tot een een evolutie die zorgde dat “het
boek veranderde in een serieproduct” (Draaisma, 1995, p. 55). Boeken werden alomtegenwoordig en
wie iets niet meer wist kon zijn eigen exemplaren naar believen raadplegen. De mnemotechnische
kunst moest aan populariteit inboeten en de mensheid ging een nieuw tijdperk in met een geheugen
dat steeds beperkter zou worden.
De Middeleeuwen introduceerden tevens meer mysterie. In de plaats van het reduceren van
complexe verschijnselen tot eenvoudigere processen kende het holisme een grote populariteit. Niet
de som van de delen, maar wel het geheel was belangrijk. Dit kwam vooral naar voren in het
hermetisme, een 15de eeuwse stroming die elementen uit alchemie, astrologie, waarzeggerij en
andere magische stromingen samenbracht (Draaisma, 1995, p. 59). De microkosmos in ons hoofd is
een afspiegeling van de macrokosmos. De wereld is doordrongen van mysterieuze tekens en
getallensymboliek. Een belangrijke vertegenwoordiger van deze mystieke stroming, althans in
sommige interpretaties van zijn werk, was Giordano Bruno. In een een tekst van Stephen Clucas
kunnen we de meest invloedrijke interpretatie van Bruno’s geheugentheorie lezen, uitgewerkt door
Frances Yates (Clucas, 2002). Yates ziet Bruno’s mnemotechniek als een magische opvolger van de
door Cicero uitgewerkte kunst. De afbeeldingen die in ons hoofd geprint staan en de rangschikking
ervan zijn een afspiegeling van het hele universum, waardoor we dat universum van binnen uit
kunnen kennen (Clucas, 2002, p. 252). Draaisma beschrijft iets plastischer, ook aan de hand van
17 | P a g e
Yates, hoe dit geheugensysteem in elkaar zat. Het zou bestaan uit cirkelende wielen waarop alles
wat bestaat afgebeeld staat (Draaisma, 1995, p. 60). Deze “Lullist wheels” werken volgens Yates als
talisman, dat wil zeggen dat ze onder astrale invloed staan. De wielen worden beïnvloed door de
stand van sterren en planeten en zijn op hun beurt ook “transmitters of astral forces” (Clucas, 2002,
p. 254). Clucas heeft het vervolgens over een belangrijke tegenstander van Yates werk, namelijk Rita
Sturlese. Zij ontkent dat de cirkelende wielen iets te maken hebben met hogere astrale krachten,
maar ziet ze gewoon als technisch hulpmiddel voor het van buiten leren van lijsten met woorden. Dat
wil zeggen dat er ook geen afspiegeling meer is van buitenwereld op binnenwereld en dat de enige
link tussen afbeeldingen en hetgene ze denoteren van puur functionele aard is (Clucas, 2002, p. 257).
In zijn conclusie wil Clucas vooral wijzen op de verscheidenheid van stromingen in Bruno’s werk, en
de uiteenlopende manieren waarop zijn mysterieuze oeuvre geïnterpreteerd kan worden.
De 17de eeuw veranderde veel op alle vlakken. Een combinatie van factoren leidde tot een nieuw
klimaat in Europa. Teksten uit de oudheid werden herontdekt, de eerste wetenschappelijke
experimenten werden uitgevoerd door Galileo Galilei, het verzet tegen de vastgeroeste ideeën van
de dominante orde werd groter en onderdrukking van nieuw gedachtengoed was niet langer
effectief. Renée Descartes (1596-1650) was één van de eerste verdedigers van een (gedeeltelijk)
mechanische theorie van het geheugen.
We kennen Descartes als de grondlegger van het rationalisme. Zijn cogito drukt uit dat de enige
zekerheid die we hebben vertrekt van uit onze rede en niet uit wat we empirisch kunnen
waarnemen. Hierop bouwde hij zijn dualistische theorie. Langs de ene kant is er de res cogitans, het
denken, datgene dat de mens zijn unieke cognitieve capaciteiten geeft. Langs de andere kant hebben
we de res extensa, de uitgebreidheid of de materie, datgene wat volledig ondergeschikt is aan de
fysische wetten van het universum. Volgens Descartes zijn dieren niet meer dan automata, hun
gedrag is volledig te wijten aan de gedetermineerde bewegingen van hun onderdelen. De mens is
natuurlijk anders. Wij beschikken, naast ons lichaam, dat mechanisch werkt, ook over een geest die
tot het domein van de res cogitans behoort. Menselijke capaciteiten zijn in Descartes’ theorie het
resultaat van wisselwerking tussen lichaam en geest. De twee interageren met elkaar via de
pijnappelklier in het centrum van ons brein. Eén van die menselijke capaciteiten is natuurlijk het
geheugen. Ook dat heeft twee componenten, een puur mechanische en een intellectuele. De laatste
ligt buiten ons bereik, maar de eerste is erg interessant voor ons onderzoek. John Sutton
herinterpreteert Descartes op een erg onconventionele manier in zijn boek Philosophy and memory
traces: Descartes to connectionism:
18 | P a g e
“Rather than taking the defining feature of Cartesianism to be the stress on rationality, linguistic
generativity, and innate ideas, I point underneath to Descartes’ (much more extensive) work on the
many capacities which we share with other animals.” (Sutton, 1998, p. 53)
Deze andere blik op Descartes doet hem veel meer eer aan. De nadruk wordt hier niet gelegd op de
dingen die toe te schrijven zijn aan onze geest en die we dus niet (mechanisch) kunnen verklaren,
maar wel op de eigenschappen die volgen uit de compositie van de onderdelen van ons lichaam.
Descartes’ mechanische theorie van het geheugen wordt uit de doeken gedaan, vertelt Sutton, in zijn
L’Homme, een onderdeel van Le Monde. In dit boek vraagt hij zijn lezer zich een wereld voor te
stellen waarin zielloze machines onze gedragingen imiteren. Hij onderzoekt niet enkel bewegen,
eten, slapen en reproduceren maar ook mentale capaciteiten die doorgaans aan de ziel
toegeschreven worden zoals sensatie, verbeelding, emotie en geheugen. Dit is de fabel van
Descartes, een handig trucje om op zoek te gaan naar mechanische verklaringen zonder veroordeeld
te worden (zoals Galileo) voor ketterij (Sutton, 1998, p. 56).
Laten we nu eens ingaan, aan de hand van Sutton’s boek, op de geheugentheorie van Descartes.
Sutton ziet in hem een voorloper van het connectionisme (infra). Herinneren is veleer het
reconstrueren van een geheugenpatroon dan het ophalen van een spoor uit de opslagruimte van ons
geheugen. Concreet kwam herinneren voor Descartes overeen met het reconstrueren van een
stroom van animale geesten door de poriën in het centrum van het brein (Sutton, 1998, p. 59).
Bepaalde poriën zijn minder of meer geopend dan andere en door het herhaaldelijk herinneren van
hetzelfde patroon ontstaan fysische disposities in de poriën. Dit is het materiële equivalent van het
geheugen. Datgene wat blijvend is in het brein. Omdat respresentaties van herinneringen
gedistribueerd zijn (een patroon over vele poriën) kan in eenzelfde set van poriën een grote
hoeveelheid herinneringen opgeslagen worden. Hier wordt duidelijk waarom Sutton van
reconstructie spreekt en niet van reproductie. Wanneer een deel van een patroon door toeval of
door een cue geactiveerd wordt helpen de disposities om het hele patroon terug te activeren en dus
te herinneren. Hoe vaker het patroon geactiveerd wordt, hoe sterker de disposities en hoe sterker
dus ook de herinnering.
Sutton vertelt vervolgens hoe Descartes zelf een metafoor invoerde om het systeem zichtbaar te
maken. Hij sprak van een linnen doek waardoor verschillende naalden herhaaldelijk passeren
(Sutton, 1998, p. 59). Hoe vaker een naald door een bepaalde opening gestoken wordt, hoe groter de
opening wordt. En zelfs openingen die weer sloten na eenmalig geopend te worden zullen de tweede
keer makkelijker openen. Openingen die altijd samen geopend werden zullen elkaar beïnvloeden
wanneer slechts een van de twee geopend wordt. Dat laatste komt bij het herinneren overeen met
19 | P a g e
een cue. Wanneer ik een deel van de eifeltoren zie zal dat het gehele patroon oproepen. Een andere
vergelijking waarvan Descartes spreekt is de vouw in een blad papier (Sutton, 1998, pp. 63-64). Hoe
meer we het blad vouwen hoe groter de ‘dispositie’ in het blad. Hoe meer vouwen hoe groter de
kans dat ze gaan overlappen, en uiteindelijk zal een blad papier slechts een beperkt aantal vouwen
kunnen hebben, zoals het brein een beperkt aantal herinneringen kan bevatten. Toch is er een
drastische stijging in het aantal mogelijke herinneringen in vergelijking met oudere theorieën. In het
wasbord van Plato heeft elke herinnering zijn eigen plaats. Het wasbord zal veel sneller volgeklad zijn
dan Descartes’ geheugen. Dat is te danken aan de superpositionele opslag en de gedistribueerde
representaties (Sutton, 1998, pp. 63-64).
Ook verbeelding kan uitgelegd worden aan de hand van deze geheugentheorie. Descartes beschrijft
een model waarin we bepaalde ideeën kunnen hebben zonder tussenkomst van de rationele ziel.
Ideeën worden dan niet enkel geactiveerd door de realiteit die onze zintuigen activeert. Patronen
kunnen ook toevallig geactiveerd worden, door ruis als het ware, en aangezien verschillende
patronen opgeslagen kunnen worden in een grote hoeveelheid poriën, zullen ideeën zich ook met
elkaar gaan vermengen. Op die manier ontstaan fictieve ideeën, bijvoorbeeld de eenhoorn, als
vermenging van andere ideeën. (Sutton, 1998, p. 62)
Afgezien van het materiaal waarmee dit systeem werkt zijn er, zoals Sutton beweert, erg veel
gelijkenissen met hedendaagse connectionistische netwerken. Erg belangrijk is dat dit systeem een
complete ontkenning is van het geheugen als statische opbergruimte. Er is geen enkel stukje materie
dat aangeduid kan worden als het substraat van een bepaalde herinnering. Herinneringen zijn geen
‘dingen’ die ergens opgestapeld zijn in één of ander archief. Descartes’ theorie maakt van herinneren
een actief proces, een constructie. Dat impliceert dat het zien van een oude vriend, mijn herinnering
ervan de dag erna en mijn herinnering een week later geen gemeenschappelijke component hebben.
Elke keer wordt een patroon gereconstrueerd in een substraat dat beïnvloed werd door de vorige
gebeurtenissen. Er is echter niets aanwezig in elk van deze 3 processen dat we een statische,
onveranderlijke herinnering kunnen noemen.
Deze interpretatie van het cartesianisme is, zoals eerder vermeld, nogal onconventioneel. In elk
inleidend filosofisch werk wordt Descartes voorgesteld als de rationalist bij uitstek, bijvoorbeeld in
Neath (1998, p. 12). Hij wordt loodrecht tegenover de Britse empiristen geplaatst. Deze laatsten
claimen dat al onze kennis afstamt van de waarneming. John Locke beweert dat de mens bij de
geboorte een tabula rasa, een onbeschreven blad is, dat door ervaring beschreven wordt . Thomas
Hobbes heeft het over ‘simpele ideeën’, afkomstig van sensatie, die gecombineerd worden tot
20 | P a g e
‘complexe ideeën’. Het denken is volgens deze school niet meer dan een opeenvolging van ideeën
die we via de empirie verkregen hebben. Hoe die opeenvolging juist verloopt hangt af van de wetten
van associatie. We hebben het reeds gehad over de drie wetten die al bij Aristoteles te vinden zijn.
We associëren ideeën die dicht bij elkaar staan, die op elkaar lijken of die contrasteren. Volgens
David Hume worden ook oorzaken en gevolgen met elkaar geassocieerd. Volgens de algemeen
aanvaarde geschiedenis van filosofie en psychologie zijn deze associationistische ideeën de
voorlopers van het connectionisme. In deze laatste stroming is er sprake van activatie van patronen.
Het ene patroon kan, wanneer het voldoende geactiveerd is, aanleiding geven tot de activatie van
een ander patroon. Dat is een meer ingewikkelde verklaring voor associatie. Descartes, met zijn
aangeboren, vastgeroeste ideeën en zijn beroep op een immateriële ziel, had het in deze
interpretatie bij het verkeerde eind, maar zoals we gezien hebben kunnen we hem ook lezen als een
visionair.
Douwe Draaisma bespreekt een andere vertegenwoordiger van de mechanische traditie. Een volgens
hem erg onderschatte figuur die op de grens tussen middeleeuwen en nieuwe tijden een
geheugentheorie heeft uitgewerkt, met name Robert Hooke, een zeventiende eeuwse homo
universalis. Hij was fysicus, uitvinder, architect, sterrenkundige en hij introduceerde de naam ‘cel’ na
zijn microscopische waarnemingen (Draaisma, 1995, p. 77). Hooke wou, in navolging van Descartes,
een volledig mechanische verklaring geven voor het geheugen. De perfecte metafoor vond hij in
zogenaamde fosforenscerende stoffen (Draaisma, 1995, p. 70). Dat waren stoffen die licht konden
vasthouden en afgeven in het donker. Een fysisch substraat voor het visuele geheugen was niet
langer iets mysterieus en ontoegankelijk. Een simpele analogie met een aardse stof volstond. We
zien hier opnieuw het gevaar van de substitutie-metafoor (supra). Hoe fosforescerende stoffen het
licht konden vasthouden was niet geweten. Hoe ons brein lichtindrukken opslaat was even
onbekend. Maar het feit dat een eenvoudige steentje het kon moest wel betekenen dat ook wij geen
transcendentale ziel nodig hebben om te herinneren. Hoewel de ziel wel nog een rol speelt bij
Hooke, worden toch veel van haar aspecten vervangen door mechanismen in de hersenen. Net als
Descartes moest Hooke namelijk ook een middel vinden om veroordeling te vermijden. De ziel
mechaniseren was dus zeker geen optie, maar Hooke onttrok meer en meer functies van de ziel om
die vervolgens te mechaniseren. Het geheugen was één van die functies (Draaisma, 1995, p. 84).
Hooke maakte niet enkel gebruik van de fosformetafoor. Hoewel de Royal Society niet erg gesteld
was op beeldspraak (om redenen die ik in het eerste onderdeel van dit deel heb aangehaald) waren
Hooke’s teksten ervan doordrongen. Ook hij heeft het over de opslagplaats van het geheugen
waarbij de zintuigen “carriers” zijn die de indrukken stapelen (Draaisma, 1995, p. 78). De
21 | P a g e
opslagplaats komt overeen met onze hersensubstantie. Misschien is het beter te spreken van
verschillende opslagplaatsen, één voor elke zintuiglijke modaliteit, zoals bij Augustinus. Ook voor het
opslaan van geluid had Hooke een metafoor, nl. glazen waarin je het geluid hoort nagalmen
(Draaisma, 1995, p. 78). Centraal in de hersensubstantie bevindt zich de ziel die in alle richtingen
schijnt zoals de zon. Rond de ziel op verschillende afstanden bevinden zich de opgeslagen indrukken.
Hun afstand tot het centrum is een functie van hun ouderdom, hoe ouder de herinnering, hoe verder
ze van de ziel verwijderd is. Dat vergroot de kans dat het licht van de ziel de herinnering niet kan
bereiken omdat ze te ver is of omdat er een andere herinnering tussenstaat. Deze twee verklaringen
van vergeten komen overeen met de verval- en de interferentietheorie van vandaag en afstand in
functie van ouderdom doet denken aan de vergeetcurve van Ebbinghaus (infra). Opvallend is hoe
Hooke fysische wetten gebruikt om een psychologisch verschijnsel te verklaren (Draaisma, 1995, p.
82).
Draaisma verbindt de metafoor van de microkosmos met de ziel als zon met de invloed van het
hermetisme. Hooke groeide namelijk op binnen deze traditie. Een belangrijke opmerking bij
bovenstaande theorie is echter dat Hooke dit alles beschouwde als iets materieel, iets dat
uitgebreidheid heeft en dus werkelijk in ons hoofd aanwezig is. In tegenstelling tot Augustinus moest
Hooke dus wel een antwoord bieden op de vraag van het plaatsgebrek. Een eindige massa in onze
hersenen betekende een eindige opslagcapaciteit voor herinneringen. Dat was echter geen probleem
voor Hooke. Gezien zijn werk met de microscoop was hij gewend aan het idee dat het heel kleine
heel veel informatie kan bevatten (Draaisma, 1995, p. 80).
4) De romantiek
Descartes en Hooke waren slechts de eerste vertegenwoordigers van de mechanicistische traditie. Zij
hadden nog trucjes, fabels, achterpoortjes en verbloemd taalgebruik nodig om hun ideeën te kunnen
verdedigen. Het succes van de wetenschappelijke revolutie deed het geloof groeien dat heel de
wereld reduceerbaar was tot fysische interacties tussen haar onderdelen. De ziel bestond nog, maar
ging meer en meer op een leeg reservoir gaan lijken tot uiteindelijk het onvermijdelijke gebeurde en
de mens als machine tussen de rest van de dieren werd geplaatst. Dat gebeurde in het jaar 1749 en
onder de vorm van een pamflet getiteld L’homme machine van de franse artst Julien de Lamettrie
(Draaisma, 1995, p. 95). Hij was één van de philosophes van de Franse Verlichting. Het is een staaltje
van bescheidenheid dat we slechts zelden tegenkomen in de geschiedenis. Het doet natuurlijk
22 | P a g e
denken op Darwin, die op zijn beurt de mens van zijn geprivilegieerde positie in the chain of being
weghaalde en hem een nieuw plaatsje gaf op een takje van de evolutionaire boom, een takje dat
voor hetzelfde geld nooit had bestaan. Darwin publiceerde zijn Origin of Species echter pas in 1859,
dat is 110 jaar na Lamettrie’s pamflet. In tussentijd, tussen 1790 en 1840 was een tegenbeweging
ontstaan, de romantiek (Draaisma, 1995, p. 97). Haar aanhangers konden geen vrede nemen met het
idee dat de mens niet meer is dan een machine. Machines zijn eenvoudig, de mens is complex. Die
complexiteit werd voortdurend benadrukt aan de hand van organische metaforen (Draaisma, 1995,
p. 98). Het gebruik van de metafoor had dus voor één keer niet als doel een complex proces vatbaar
te maken. Het was net het onvatbare dat benadrukt moest worden. De microkosmos van onze geest
werd opnieuw gezien als een afspiegeling van de macrokosmos rondom ons, zoals bij Hooke, maar
met geheel andere bedoelingen. Onze ziel is als een landschap, gigantisch uitgestrekt, zonder
regelmatigheid, met verborgen holen en grotten, met voorbijvliegende wolken die storm brengen of
net niet. Ons geheugen is als een labyrint met verborgen kamers waarin de bron van onze creativiteit
schuilt. Ons bewustzijn is als de zon die het landschap verlicht, maar het licht dringt niet in alle
spelonken van het landschap of niet in alle gangen van het labyrint door. Het onderbewuste sluimert
onder de oppervlakte en zal door ons nooit gevat kunnen worden. De enige mechanische metafoor
die gebruikt wordt is die van het weefgetouw, maar juist om aan te tonen hoe complex en
onvoorspelbaar ons geheugen werkt (Draaisma, 1995, p. 101). Zoals we vandaag nog steeds niet met
zekerheid het weer kunnen voorspellen, zo zullen we ook nooit kunnen doordringen tot in de diepste
gangen en grotten van ons geheugen.
5) Nieuwe geheugenmetaforen onder invloed van de technologische
revolutie. The Fysiological Turn.
De ideeën van de romantiek moesten het opnemen tegen de eeuwige nieuwsgierigheid en
verklaringsdrang van de mens. Het verzet was gedoemd te mislukken. De 19de eeuw bracht een
nieuwe golf van speculatie over het geheugen. Men ging zich voor het eerst ook met hersenanatomie
bezig houden. Dat lijkt erg laat in de geschiedenis, maar het is te begrijpen wanneer we bedenken
dat de mysterieuze eigenschappen van onze hersenen voor het grootste gedeelte van de
geschiedenis werden toegeschreven aan een immateriële ziel. Het is pas wanneer de kerk aan
invloed inboet en wanneer het materialisme ontstaat dat er voor het eerst werd gepraat over
lokalisatie van psychologische functies in de materie van ons brein. Een voorbeeld is de frenologie,
een 19de eeuwse stroming binnen de geneeskunde, die aan de hand van de vorm van de schedel de
23 | P a g e
grootte van hersenorganen probeerde te achterhalen (Draaisma, 1995, p. 105). Die grootte
correspondeerde met de mate van ontwikkeling van dat orgaan, waardoor psychische eigenschappen
van mensen voorspeld werden aan de hand van uitstulpingen en deuken in hun schedel. De
frenologie heeft de 19de eeuw niet overleefd, maar het heeft wel het idee van lokalisatie
geïntroduceerd. Het idee kwam in de neurowetenschap zelf terecht via Broca, een franse arts die
merkte dat schade aan een bepaald stukje neocortex in verschillende patiënten leidde tot dezelfde
symptomen, een probleem met taal dat later Broca-afasie werd gedoopt (Draaisma, 1995, p. 109).
Dankzij deze gebeurtenissen ontstond het idee dat elke cognitieve capaciteit zijn eigen neurologisch
substraat heeft. Deze beweging noemt zichzelf de ‘mental physiology’. Wat het geheugen betreft is
het een voortzetting van de zoektocht naar Hooke’s fosforescerende stof, of naar een substraat dat
onze herinneringen compleet conform de natuurwetten kan vasthouden. Draaisma legt de nadruk op
één erg belangrijke publicatie binnen deze traditie, en dan voornamelijk op een stelling in die
publicatie. In 1870 beweerde de fysioloog Ewald Hering dat geheugen een algemeen kenmerk is van
organische materie (Draaisma, 1995, p. 112). Bij het waarnemen wordt een elektrisch spoor
getrokken door onze hersensubstantie. Een geëxciteerd neuron activeert op zijn beurt het volgende
neuron. De cellen onthouden deze beweging aan de hand van disposities, wat herhaling faciliteert.
Het ontstaan van deze disposities is geen ingewikkeld proces maar juist een natuurlijke, universele
eigenschap van organische cellen. Op deze manier wou men op een geheel fysiologische manier een
verklaring geven voor het geheugen. Dit doet denken aan de Hebb-regel, die leren toelaat door het
ontstaan van disposities op het niveau van de cel. Maar daarover later meer.
Nog steeds kwamen metaforen goed van pas in de zoektocht naar het fysisch substraat van het
geheugen. De 19de eeuw was een unieke gelegenheid door het ontstaan van de fotografie en van de
fonograaf. Deze twee apparaten maakten het idee van de fysische retentie van visuele en auditieve
informatie veel aannemelijker. Er werd dan ook dankbaar gebruik van gemaakt in
geheugentheorieën. (Draaisma, 1995)
De geschiedenis van de fotografie, vertelt Draaisma ons, begint bij de camera obscura (Draaisma,
1995, p. 137). Dat is een duistere kamer met een gat in één van de wanden. Het licht dat door het gat
de kamer binnenschijnt projecteert een beeld op de overliggende wand. Het is meer een natuurlijk
fenomeen dan een uitvinding en er is al sprake van in de geschriften van Aristoteles en in Euclides’
Optica. De camera obscura werd bovendien al vrij vroeg gebruikt als analogie voor het oog. Het licht
dat het oog binnenvalt wordt omgekeerd geprojecteerd op het netvlies. Descartes werkte deze
analogie verder uit in zijn Dioptrique (Draaisma, 1995, p. 137). Hier is echter nog geen sprake van
fotografie en geheugen. Daarvoor waren verdere ontwikkelingen nodig. Het geprojecteerde beeld in
24 | P a g e
een camera obscura is namelijk vluchtig, de projectie verdwijnt van zodra het geprojecteerde
verdwijnt en een geheugen is net een projectie van iets dat niet meer aanwezig is. De tweede stap in
de geschiedenis van de fotografie werd maar gezet na de ontdekking van de mysterieuze
fosforescerende stoffen waarover Hooke het had. Douwe Draaisma noemt de fotografie een
“huwelijk tussen optica en chemie” (Draaisma, 1995, p. 143). Men trachtte de beelden die het licht
van nature creëerde, zoals het beeld in de camera obscura, te conserveren met chemische stoffen
die licht konden vasthouden, zoals zilvernitraat.
Gedurende de eerste helft van de 19de eeuw werd het procedé uitgewerkt en verbeterd door
mensen als Jospeh Niépce, Louis Daguerre, William Fox Talbot en Samuel F.B. Morse (Draaisma,
1995). Het werd nu mogelijk om een momentopname te maken van een gebeurtenis die voor altijd
objectief zal weergeven hoe het echt gegaan is. Het was een wereldschokkende uitvinding. Iets wat
men zich niet kon voorstellen tot het bestond. Analogieën met het geheugen lagen nu dan ook voor
de hand. De filosofische discussie over hoe mechanisch onze ziel is, in combinatie met het ontstaan
van een compleet mechanisch procedé voor de opslag van beeldmateriaal, moest wel leiden tot
geheugentheorieën gebaseerd op fotografische platen. Licht dat via de pupil op het netvlies
geprojecteerd wordt, wordt vervolgens chemisch gefixeerd en de sporen van het beeld blijven
eeuwig sluimeren in ons geheugen. Draaisma bespreekt John William Draper als vertegenwoordiger
van deze metafoor. Volgens Draper laat licht een permanente impressie na op dat waarop het
schijnt. De ganglions in onze hersenen zijn bovendien gespecialiseerd in het fixeren van dat licht, wat
hen optimaal maakt als substraat van het geheugen (Draaisma, 1995, p. 156). Draper maakt gretig
gebruik van de fotografiemetafoor. Hij spreekt over foto’s die in Mexico genomen worden en
vervolgens pas in New York terug worden ontwikkeld. In tussentijd en over de vele kilometers die
deze twee plaatsen scheiden werden de impressies bewaard op het fotografisch papier. Draper
merkte op dat de foto niets vergeten was (Draaisma, 1995, p. 157). Een mooie illustraties van een
metafoor die in twee richtingen werkt.
Wat de fotografie deed voor het visuele geheugen deed de fonograaf voor het auditieve geheugen.
Het apparaat werd in 1877 gefinaliseerd door Edison (Draaisma, 1995, p. 116). Het principe bestaat
uit een naald die groeven maakt in een schijf onder invloed van geluid. Hierdoor ontstaat een
golfpatroon dat achteraf weer in geluid omgezet kan worden. Het werd nu dus ook mogelijk om
geluid, misschien nog vluchtiger dan het beeld, te conserveren. Niet veel later, zoals ondertussen wel
te verwachten valt, sprak men van ons brein als een fonograaf (Draaisma, 1995, p. 120).
25 | P a g e
6) Ebbinghaus en de kwantitatieve benadering
Veel van de tot nu toe besproken geheugentheorieën ontstonden via introspectie. De grote denkers
van de geschiedenis bestudeerden zichzelf en hun eigen herinneringen. Bij introspectie worden we
geconfronteerd met de vele mysteries van het geheugen. Soms vergeten we, soms weten we dat we
iets weten maar kunnen we er net niet opkomen, we weten altijd onmiddellijk dat we iets niet
weten, soms antwoorden we intuïtief iets op een vraag en blijkt dat juist te zijn. Al deze
verschijnselen doen ons beseffen hoe ingewikkeld we in elkaar zitten. Dit verklaart waarom het
geheugen zo vaak vergeleken is met eindeloze complexe fenomenen en waarom een mechanische
beschrijving van het geheugen, of van het denken in het algemeen, absurd leek. Maar ook Descartes
ging te werk aan de hand van introspectie. Hij verantwoordde deze methode echter als de enige
legitieme manier om tot ware kennis te komen.
Een eigenschap van introspectie is haar subjectiviteit. Elkeen ervaart hetzelfde fenomeen op een
verschillende wijze. De één kan bij het bestuderen van zijn eigen geheugen vooral gegrepen worden
door de enorme opslagcapaciteit, terwijl de ander zich kan ergeren aan hoe vluchtig informatie is en
hoe rap hij vergeet. Als beide personen nu ook een theorie opstellen van het geheugen en eventueel
een metafoor invoeren dan zullen deze enorm van elkaar verschillen. En verder is er binnen deze
methode geen manier om uit te maken wie gelijk heeft.
De verwezenlijking van de wetenschappelijke revolutie was net dat de objectiviteit in theorievorming
werd geïntroduceerd aan de hand van experimenteel onderzoek. De valwetten van Galileo Galilei
hadden niets te maken met hoe hij zelf het vallen ervoer, maar hij formuleerde een experiment met
objectieve meetmethoden, waarover iedereen het dus eens kon zijn. Hoewel deze revolutie voor de
fysica reeds plaatsvond in de 17de eeuw, moest de psychologie wachten tot in de 19de eeuw op
Wilhelm Wundt, en voor experimenteel geheugenonderzoek op Hermann Ebbinghaus.
Ebbinghaus is vooral bekend voor zijn onderzoek naar vergeten. Nogal ironisch, gezien het
voorgaande, is dat hij zelf zijn eigen en enige testsubject was. Zijn methode heeft echter niets te
maken met introspectie, en herhalingen van het onderzoek met andere proefpersonen hebben
aangetoond dat de resultaten extrapoleerbaar zijn. We beschrijven zijn bekende experiment aan de
hand van Neath (1998). Hij stelde lijsten samen van nonsensicale lettergrepen zoals VAC of YAT. Hij
leerde een lijst tot hij ze volledig in de juiste volgorde kon opzeggen. Vervolgens wachtte hij een
bepaalde tijd, om dan opnieuw de lijst te leren. Het verschil tussen de tijd die origineel nodig was om
de lijst van buiten te leren en de tijd die de tweede maal nodig was noemde hij de winst. Wanneer
26 | P a g e
we nu het percentage winst uitzetten tegenover de tijd tussen eerste en tweede leerfase bekomen
we de vergeetcurve van Ebbinghaus, of de eerste objectieve weergave van vergeten ooit (zie figuur
1). Zoals te verwachten valt wordt het percentage winst met de tijd kleiner, maar wordt de curve ook
platter. De eerste minuten maken een groot verschil, na enkele uren is er nog een geleidelijke
afname en na een dag is de afname bijna vlak geworden. (Neath, 1998, pp. 16-18)
Maar Ebbinghaus ‘mathematiseerde’ veel meer dan enkel het vergeten. Hij onderzocht het verband
tussen de lengte van de lijst en de tijd die nodig was ze te leren. Hij leerde gedichten van buiten om
te zien of betekenis en rijm invloed hadden op het leerproces (Draaisma, 1995, p. 126). De
noodzakelijke stap die hij zette was, zoals ondertussen duidelijk is, een objectieve maat vinden voor
geheugen. Hij vond die maat in de tijd die nodig was om iets van buiten te leren.
Vergeetcurve van Ebbinghaus
100
90
Percentage winst
80
70
60
50
40
30
20
10
0
0
1
2
3
4
5
6
7
8
Tijd
Figuur 1: De vergeetcurve van Hermann Ebbinghaus. De precieze waarden zijn fictief, maar de vorm van de curve komt
kwalitatief overeen met wat typisch in de literatuur beschreven wordt, bv. (Neath, 1998). Op de horizontale as zien we
de tijd die voorbij gegaan is sinds het voor het eerst leren van de lijst (t=0). Op de verticale as zien we het percentage
winst. Dat is de tijd die nodig is om de lijst van buiten te leren op een gegeven moment gedeeld door de originele tijd die
nodig was.
7) William James
Bij het ingaan van de 20ste eeuw was de psychologie een volwaardige wetenschap. Een werk dat
hiertoe bijgedragen heeft is de Principles of Psychology van William James, een 900 pagina’s lang
27 | P a g e
boek dat alle aspecten van de menselijke geest bespreekt, zo ook het geheugen in hoofdstuk 16.
James’ opvatting over het geheugen is tegelijk een samenvatting van oude theorieën en een mooie
inleiding tot de 20ste eeuw. James past in de associationistische traditie. Hij maakt dankbaar gebruik
van de introspectieve methode, maar bouwt ook verder op experimenteel onderzoek dat door
Wundt, Fechner en Ebbinghaus werd uitgevoerd. Bovendien benadrukt hij herhaaldelijk dat een
geheugentheorie pas waarde heeft wanneer er naast de mentale component ook een lichamelijke
component beschreven wordt. Het hoofdstuk over het geheugen begint met een onderscheid tussen
primair en secundair geheugen. Het eerste is niet meer dan het nasluimeren in het bewustzijn van
iets dat seconden geleden ervaren werd. Er is niet echt tijd voorbij gegaan. Het secundaire geheugen,
datgene wat James echt wil bespreken, is het herbeleven van iets dat lange tijd niet in het bewustzijn
aanwezig geweest is (James, 1952, p. 423). Het is een onderscheid dat is blijven bestaan in de
cognitieve wetenschappen en ook vandaag nog belangrijk is. Vandaag wordt met het primaire
geheugen het werkgeheugen of kortetermijngeheugen bedoeld, bijvoorbeeld het onthouden van een
telefoonnummer voor enkele seconden. We maken voortdurend gebruik van dit geheugen bij het
uitvoeren van onze dagdagelijkse taken, en het is een belangrijke, als niet de belangrijkste
component van het bewustzijn. Het secundaire geheugen noemen we vandaag het
langetermijngeheugen. Dat komt overeen met de dingen die voor langere tijd opgeslagen worden. Er
bestaan theorieën over beide geheugens die we in deel 3 verder zullen bespreken. Nadat James deze
distinctie invoert volgt een filosofische uiteenzetting over het fenomeen herinneren. Herinneren is
niet louter het herervaren van iets. De ervaring van ontbijten vandaag is niet voldoende om je het
ontbijt van gisteren te herinneren. Er is meer nodig. Volgens James is een herinnering een complexe
representatie bestaande uit het originele beeld of gevoel plus een verzameling geassocieerde
elementen. Zo is bijvoorbeeld een conceptie van het zelf nodig, gesitueerd in tijd, zowel nu als bij het
ervaren van wat nu herinnerd wordt. Het object dat bestaat uit al deze elementen en hun
verbindingen noemt James een herinnering (James, 1952, p. 426). De verbindingen spelen hierin een
belangrijke rol. Hier wordt duidelijk dat James een aanhanger is van het associationisme van de
Briste empiristen. Hij maakt het onderscheid tussen opslag (retention) en ophaling (recall). Ophaling
gebeurt aan de hand van associatie. James beschrijft een zoektocht in het geheugen met een
voorbeeld: het ontmoeten van een oude kennis wiens naam we ons niet herinneren (James, 1952, p.
427). We associëren zijn gezicht met enkele namen, plaatsen hem in situaties waar we hem ontmoet
hebben in de hoop dat een van die contextuele cues zijn naam zal activeren, we denken aan
gemeenschappelijke kennissen, dingen die hij gedaan heeft, gesprekken die we met hem gehad
hebben, enzovoort. We cirkelen rond de naam van herinnering naar geassocieerde herinnering om
28 | P a g e
zo uiteindelijk (als we geluk hebben) op de juiste herinnering uit te komen. James maakt zelfs even
gebruik van de opbergruimtemetafoor:
“In short, we make search in our memory for a forgotten idea, just as we rummage our house for a lost
object. In both cases we visit what seems to us the probable neighborhood of that which we miss. We turn
over the things under which, or within which, or alongside of which, it may possibly be; and if it lies near
them, it soon comes to view. But these matters, in the case of a mental object sought, are nothing but its
associates. The machinery of recall is thus the same as the machinery of association, and the machinery of
association, as we know, is nothing but the elementary law of habit in the nerve-centres.” (James, 1952, p.
428)
Vervolgens stelt James dat opslag of retentie niet meer is dan de mogelijkheid tot ophaling. Wat
opgehaald wordt is logischerwijs bewaard. Herinneringen activeren elkaar via neurologische
verbindingen. De neiging tot het activeren van verbonden herinneringen zal dus vergroten naarmate
de verbinding sterker wordt. Opslag komt dus overeen met het maken en versterken van paden in
het breinweefsel, een puur fysiologisch fenomeen. Het ophalen van herinneringen is een
psychofysisch fenomeen, het heeft een lichamelijke kant, het activeren van de neurologische paden,
en een mentale kant, de bewuste herinnering (James, 1952, p. 429). De paden waarvan hier sprake is
komen overeen met wat door Descartes predisposities en door anderen sporen genoemd werden.
Vervolgens moet James een link leggen tussen een herinnering als complexe respresentatie en een
herinnering als het heractiveren van een pad. Anders weerlegt zijn eerste uiteenzetting zijn tweede.
Een herinnering is meer dan een reactivatie van de ervaring. Of zoals James het zelf uitdrukt: “The
gutter is worn deeper by each successive shower, but not for that reason brought into contact with
previous showers” (James, 1952, p. 430). Wat reactivatie doet is niet meer dan het sterker en vlotter
maken van verbindingen. Het zorgt er niet voor dat een ervaring een bepaald label krijgt met de tekst
‘dit is een herinnering’. Wat wel gebeurt is dat er paden gelegd worden tussen datgene wat
herinnerd wordt en de andere noodzakelijke elementen voor de herinnering, nl. situering in de tijd,
contextuele factoren, opvatting van het zelf nu en toen, .... Die paden worden vervolgens bij elke
ophaling versterkt (James, 1952, p. 430).
Na de uitwerking van zijn algemene opvatting over het geheugen bespreekt hij de eigenschappen van
‘het goede geheugen’. Hij spreekt vol lof over de groten in de geschiedenis en over hoe ze hun
grootheid te danken hadden aan wat hij ‘amazing retentiveness’ noemt. Deze eigenschap is er één
van puur fysiologische aard. Sommige mensen zijn gewoon beter dan anderen in het opslaan van
informatie omdat hun breinweefsel geschikter is. James drukt het zelf uit op een manier die Plato en
Aristoteles trots gemaakt zou hebben: “This tenacity [retentiveness] differs enormously from infancy
to old age, and from one person to another. Some minds are like wax under a seal -- no impression,
29 | P a g e
however disconnected with others, is wiped out. Others, like a jelly, vibrate to every touch, but under
usual conditions retain no permanent mark.” (James, 1952, p. 432)
Maar deze aangeboren capaciteit om goed of minder goed te onthouden is niet de enige factor die
bijdraagt tot ‘het goede geheugen’. Uit het associationisme volgt dat een herinnering een grotere
kans heeft opgehaald te worden wanneer ze gelinkt is met een groter aantal andere herinneringen
en wanneer ze dus via meer paden geactiveerd kan worden. Twee mensen met dezelfde aangeboren
‘retentiveness’ kunnen dus een verschillend geheugen hebben indien de ene tijd besteedt aan het
trainen van zijn geheugen, namelijk het samenweven van ervaringen door ze te overdenken en door
het leggen van linken, en de andere niet. Dat verklaart ook waarom specialisten in een bepaald
domein een beter dan gemiddeld geheugen hebben voor gebeurtenissen binnen dat domein. James
geeft als voorbeeld een studerende atleet die niets onthoudt uit zijn cursussen maar probleemloos
de sportstatistieken van de laatste 20 jaar kan reciteren. Dat komt omdat die laatste gegevens
voortdurend in zijn hoofd ronddwalen, waardoor ze de gelegenheid krijgen een netwerk van
verbindende paden te vormen (James, 1952, p. 433).
30 | P a g e
III. 20ste eeuwse ontwikkelingen
De 20ste eeuw betekende, wat vele wetenschappelijke takken betreft, een enorme vooruitgang. De
wetenschap begon aan zelfdefiniëring en introspectie te doen, wat leidde tot het ontstaan van de
wetenschapsfilosofie. Deze eeuw wordt dan ook gekenmerkt door duidelijkere paradigmawissels.
Ook de geheugenpsychologie matureerde in deze periode. In het begin van de eeuw was de stroming
van het behaviorisme dominant binnen de gehele psychologie. Haar tekortkomingen werden
aangewezen en opgevuld door de cognitieve wetenschappen. Het is binnen dit paradigma dat we het
ontstaan en de duidelijk invloed van de computermetafoor kunnen waarnemen, zowel voor het
geheugen als voor de menselijke geest in het algemeen. Geheugentheorieën werden ontwikkeld aan
de hand van wiskundige modellen. Deze modellen evolueerden om steeds beter de empirische
waarnemingen van psychologische experimenten te kunnen verklaren. Het zou tot de jaren 80 duren
voor een ernstig alternatief op het toneel verscheen. Het connectionisme verzette zich tegen de
computermetafoor en introduceerde eenvoudige neurale netwerken die onze cognitie moesten
verklaren. Andere metaforen, zoals die van het hologram, werden naar voren geschoven. Het criteria
van neurologische plausibiliteit deed zijn intrede. De modellen vertoonden nu ook een anatomische
overeenkomst met onze hersenen.
1) Behaviorisme
Het behaviorisme is een psychologisch en filosofisch paradigma dat erg dominant was in het begin
van de 20ste eeuw, tot zelfs even na de Tweede Wereldoorlog. Er bestaan verschillende benaderingen
van dit paradigma. Methodologisch behaviorisme stelt dat psychologie als doel heeft het gedrag van
de mens te bestuderen en niet zijn interne ‘mentale’ wereld. In die zin is deze stroming een
duidelijke voortzetting van de experimentele traditie. We zullen nooit elkanders interne toestand
objectief kunnen observeren en dus zijn experimenten onmogelijk. Gedrag is wel objectief meetbaar.
De wetenschap, waar de psychologie nu ook deel van moest uitmaken, hoort zich dus enkel met de
studie van het gedrag bezig te houden. J.B. Watson stelde het als volgt:
“Psychology as the behaviorist views it is a purely objective natural science. Its theoretical goal is the
prediction and control of behavior. Introspection forms no essential part of its method nor is the
scientific value of its data dependent upon the readiness with which they lend themselves to
interpretation in terms of consciousness.” (Watson, zoals geciteerd in Johnson-Laird, 1998, p. 16)
31 | P a g e
Een ietwat extremere vorm is het psychologisch behaviorisme, dat stelt dat de bron van al het
menselijk en dierlijk gedrag in de buitenwereld ligt. We hebben dus geen mentale wereld nodig om
gedragingen te verklaren en aan psychologie te doen. Ivan Pavlov, een bekend behaviorist, liet zijn
hond elke dag het geluid van een belletje horen terwijl hij hem eten voorschotelde. De hond begon
logischerwijs speeksel te produceren bij het zien van dat eten. Maar na een tijdje was het belgeluid
alleen voldoende om te zorgen voor speekselproductie. Dit is het prototypische experiment van de
klassieke conditionering. Psychologische behavioristen stellen dat alle gedragingen, ook bij de mens,
te herleiden zijn tot deze simpele conditionering. Externe stimuli veroozaken gedragingen, zonder
dat een psychische mediëring nodig is. Deze stroming stamt rechtstreeks af van het associationisme
dat al meermaals naar voren is gekomen. Associatief leren is, volgens de klassieke theorie van de
Britse empiristen, het koppelen aan elkaar van perceptuele stimuli (ervaringen) en ideeën. Dat komt
overeen met het opdelen van de wereld in de categorieën van ons denken. Ik zie een tijger en
associeer dat met het idee in mijn hoofd van tijger. Dat idee is op zijn beurt geassocieerd met
gevaarlijk, en het resultaat is intelligent gedrag, namelijk ik loop weg. Om hieruit een behavioristische
theorie te construeren was een vertaling nodig. Er mag namelijk geen sprake zijn van ‘ideeën’ of
‘categorieën van ons denken’. Ervaringen moeten vervangen worden door externe stimuli en ideeën
worden vervangen door respons of gedrag. Stimulus geeft dus aanleiding tot gedrag, en de hele
route langs onze mentale wereld wordt overgeslagen.
De meest extreme en meest filosofische vorm van behaviorisme is de analytische versie. Deze stelt
dat mentale toestanden in feite niet meer zijn dan disposities om zo of zo te handelen in bepaalde
mogelijke situaties. Wanneer ik bijvoorbeeld geloof dat het 8 uur is, dan is dat ‘geloof’ niet meer dan
een lijst handelingen die ik stel, bijvoorbeeld de tv aanzetten omdat mijn favoriete programma zal
beginnen. Dit is een poging om te ontsnappen aan het dualisme van Descartes. In het dualisme is het
mentale een zelfstandig domein, een domein dat geen ruimtelijke uitgestrektheid heeft maar het
materiële wel kan beïnvloeden, de inhoud van mijn denken veroorzaakt fysische reacties in de
werkelijkheid. Door het mentale te herleiden tot een lijst van disposities in het materiële wilden de
analytische behavioristen van die hele mentale wereld af geraken.
De bekendste en meest radicale is B.F. Skinner. Hij verdedigt dan ook wat hij het radicale
behaviorisme noemt. Zijn bekendste argument wordt (naar Hempel) ‘the theoretician’s dilemma’
genoemd en gaat als volgt. Stel dat er mentale toestanden zouden bestaan, dan zijn er twee opties.
Of ze gehoorzamen aan wetten, en dan is er geen enkel probleem met een theorie die stimulus en
gedrag meteen aan elkaar linkt. Externe stimuli veroorzaken dan namelijk mentale toestanden die op
hun beurt aanleiding geven tot gedrag. Als deze verbanden volledig deterministisch verlopen kan de
32 | P a g e
tussenstap van de mentale toestanden gewoon overgeslagen worden. De tweede optie is dat
mentale toestanden niet aan wetten gehoorzamen, wat wil zeggen dat ze voor de wetenschap geen
enkele relevantie hebben. Ze moeten dus in elk geval worden genegeerd. (Johnson-Laird, 1998, p.
17)
Het geheugen is één van de menselijke capaciteiten die we in die mentale wereld zouden situeren en
die dus door het behaviorisme geherinterpreteerd moet worden. Skinner, zoals we gezien hebben de
meest extreme behaviorist, ziet het geheugen als niets meer dan de verandering in hypothetisch
gedrag. Er is geen plaats voor een mentale ‘opslagruimte’ waarin we op zoek gaan naar relevante
informatie. Het geheugen bestaat uit disposities die ervoor zorgen dat de representatie van het
gezochte de volgende keer meer kans heeft geactiveerd te worden. In zijn betoog verwijst hij naar
een probleem dat al door Plato was geformuleerd. Hoe kunnen we ons geheugen doorzoeken? Ofwel
weten waarnaar we op zoek zijn en dan is het niet meer nodig om te zoeken, ofwel weten we het
niet en hoe beginnen we dan aan deze zoektocht? De hele metafoor brengt ons op het verkeerde
pad. Wat het geheugen doet is gewoon de waarschijnlijkheid dat we een bepaald gedrag zullen
stellen als gevolg van een bepaalde stimulus aanpassen. Dit kan puur fysisch geïnterpreteerd
worden. We hebben geen nood aan een mentale component. Skinner schreef in 1974:
“The metaphor of storage in memory, which has seemed to be so dramatically confirmed by the computer,
has caused a great deal of trouble. The computer is a bad model – as bad as the clay tablets on which the
metaphor was probably first based. We do make external records for future use, to supplement defective
contingencies of reinforcement, but the assumption of a parallel inner record-keeping process adds
nothing to our understanding of this kind of thinking. (It is not the behaviorist, incidentally, but the
cognitive psychologist, with his computer-model of the mind, who represents man as a machine.)”
(Skinner, 1974, p. 110)
Hier zien we al een eerste instantie van het beruchte debat tussen behavioristen en cognitieve
psychologen. In het volgende onderdeel gaan we verder in op het ontstaan van de cognitieve
psychologie.
2) Cognitivieve wetenschappen
Na de Tweede Wereldoorlog ontstond een geheel nieuw domein dat onderzoek van verschillende
andere domeinen samenbracht. Het behaviorisme beperkte het domein van de psychologie tot de
studie van het gedrag in experimentele situaties. Als er al een geest of mind zou bestaan behoorde
onderzoek ernaar tot de puur speculatieve filosofie. De nieuwe tegenbeweging – het gevolg van een
Kuhniaanse revolutie in de psychologie – verenigde net zoveel mogelijk verschillende invalshoeken
33 | P a g e
(Bechtel & Abrahamsen, 1991, p. 1). Erg belangrijk was de integratie van de neurowetenschappen
binnen de psychologie. Men ging eindelijk serieus rekening houden met de anatomie en fysiologie
van de hersenen. Zo ging naast efficiëntie, eenvoud en empirische toereikendheid ook neurologische
plausibiliteit tot de mogelijke troeven van psychologische modellen behoren. Het door Alan Turing
opgestarte domein van de computerwetenschap bracht nog een mogelijk perspectief op het toneel.
Dat van de menselijke geest als informatieverwerkend apparaat. Daarover zullen we het uitgebreid
hebben in deel III.3. Tenslotte ondervond de nieuwe beweging verdere invloeden uit de
antropologie, filosofie, ethologie, biologie, linguïstiek, ... Dit nieuwe allesomvattende domein kreeg
de naam cognitieve wetenschap.
Zoals zonet vermeld werd, ging de neurowetenschap een belangrijke rol spelen. Speculatie over
mentale capaciteiten kon niet meer zomaar door de beugel zonder rekening te houden met hoe het
er echt in ons hoofd aan toe gaat. Wat het geheugen betreft staan we even stil bij het werk van twee
belangrijke wetenschappers. De eerste is Wilder Penfield, een neurochirurg die in 1958 enkele
vreemde voorvallen beschreef die hij tijdens verschillende hersenoperaties bij epileptische patiënten
had waargenomen. We beschrijven deze voorvallen aan de hand van Roediger et al. (1998). De
patiënten werden slechts lokaal verdoofd en bleven dus bij bewustzijn tijdens de operaties. Toen
Penfield bepaalde delen van de neocortex elektrisch stimuleerde riep dat bij verschillende patiënten
heel levendige en gedetailleerde herinneringen op. Hoewel deze bevindingen vandaag erg
controversieel zijn, zijn ze wel doorgedrongen tot in de populaire literatuur. Er zijn twee belangrijke
gevolgen. Ten eerste zou dit impliceren dat ons geheugen feilloos registreert wat we meemaken,
zonder dat informatie verloren gaat. Vergeten zou dan louter een gevolg zijn van
ophalingsproblemen of van een gebrek aan aanwijzingen die een herinnering kunnen heractiveren.
Deze hypothese heeft bijgedragen tot het succes van de computermetafoor voor het geheugen en,
zoals we verder zullen zien, hangt het model van Atkinson en Shiffrin een soortgelijk onfeilbaar
langetermijngeheugen aan. Ten tweede suggereert Penfields ontdekking dat herinneringen lokaal
opgeslagen zijn. Eén bepaalde herinnering komt overeen met één bepaalde locatie. Het stimuleren
van die locatie roept die herinnering op. Ook dit is eigen aan computergeheugens. De twee gevolgen
van Penfields bevindingen zijn zoals gezegd erg controversieel. De experimenten werden nooit
succesvol gerepliceerd, slechts een deel van de originele stimulaties gaf aanleiding tot herinneringen,
en bovendien is men er nooit echt zeker van geweest of het hier wel ging om correcte herinneringen.
Het is best mogelijk dat wat de patiënten ervoeren niet meer was dan een levendige droom of een
hallucinatie. (Roediger, Capaldi, Polivy, Herman, & Brysbaert, 1998, p. 282)
34 | P a g e
Penfield is echter wel als gerespecteerd wetenschapper de geschiedenis ingegaan. Hij is de
grondlegger van wat hij functionele anatomie noemt. Hij legde vast welke delen van de motorische
en sensorische cortex overeenkwamen met welke delen van het lichaam. Die mapping, vastgelegd
door Penfield in 1951, is vandaag bijna onveranderd in gebruik.
Een andere wetenschapper die de multidisciplinariteit van de cognitieve revolutie mooi aantoont is
Donald Hebb. Zijn theorie is bovendien tegelijk het culminatiepunt van een zoektocht die bij Robert
Hooke begon en een belangrijk onderdeel van later geheugenonderzoek. Zoals al uitgebreid verteld
is, ging Robert Hooke al in de 17de eeuw op zoek naar het fysisch substraat van het geheugen, iets
materieel dat de vluchtige indrukken van ons bewustzijn fysisch kan opslaan (supra) . Met andere
woorden hebben de neuronale banen van onze hersenen een soort plasticiteit nodig. Er moet als
gevolg van een ervaring iets veranderen in de materie van ons brein opdat we van herinneren
zouden kunnen spreken. Hebb’s stelling is dat wanneer twee neuronen herhaaldelijk tegelijk vuren,
er zich een ‘associatie’ of verbinding zal vormen tussen de twee. Het gevolg is dat een patroon van
vurende neuronen dat herhaaldelijk geactiveerd wordt steeds sterker zal worden. Dit fenomeen
staat in de hedendaagse neurowetenschap bekend als long-term potentation. Het is dan ook al op
microniveau aangetoond hoe de synaps tussen twee neuronen kan veranderen waardoor de
associatie kan versterken of verzwakken. Dit is een herhaling van wat al verschillende keren gezegd
werd. We zagen deze theorie bij de associationisten, de behavioristen en zelfs bij de onconventionele
Descartes. Het verschil is dat de theorie ditmaal steunt op neurologische plausibiliteit. Hebb toonde
de werkelijke plasticiteit van de hersenen aan. Zijn werk kende vooral veel succes binnen het
connectionisme. Daarover zullen we het nog uitgebreid hebben in deel III.4.
3) De computer
Het idee dat de menselijke geest, en dus ook het geheugen, werkt zoals een computer was erg
populair gedurende de 20ste eeuw. Het idee werd het eerst geopperd door Alan Turing, de uitvinder
van de computer en de vader van de computerwetenschap en de artificiële intelligentie. Deze
analogie bleek erg populair en ze ging onder andere het domein van de geheugenpsychologie gaan
beheersen. Het zou 20 jaar duren eer er een alternatief ontstond, maar ook vandaag nog is de
computermetafoor aanwezig in populaire literatuur. In dit onderdeel zullen we het hebben over het
ontstaan en de evolutie van deze vergelijking, we bespreken de voor- en nadelen ervan en bespreken
enkele invloedrijke modellen die binnen deze traditie ontwikkeld werden.
35 | P a g e
a) Alan Turing, het ontstaan van de moderne computer
We zijn eindelijk aangekomen bij de uitvinding van de computer. Het is een uitvinding die al onze
levens grondig heeft veranderd, niet enkel omdat ze deel is gaan uitmaken van vele aspecten van ons
dagelijks leven, maar ook omdat ze vragen oproept en analogieën suggereert die zowel de
wetenschap als de filosofie in nieuwe richtingen hebben gestuwd. Het plotse ontstaan van dit
apparaat heeft veel te maken met de Tweede Wereldoorlog. Het is nogal cynisch om te spreken van
de voordelen van één van de wreedste gebeurtenis uit onze geschiedenis, maar het kan niet ontkend
worden dat WOII voor een grote technologische vooruitgang gezorgd heeft. Het was een race tussen
verschillende grootmachten met als finishlijn de uitvinding van de atoombom. Onderweg werden de
fundamenten gelegd voor vele uitvindingen, de computer was daar één van. Alan Turing, die de
vader van de computerwetenschappen genoemd wordt, was dan ook één van de figuren die tijdens
de oorlog bijdroeg tot het ontcijferen van de Enigma-machine van de Duitsers. Zijn theorie over
berekenbaarheid (computability) werkte hij echter al uit in 1936, in een paper genaamd ‘On
computable numbers’.
Deze paper werd geschreven in de traditie die de naam ‘metamathematica’ draagt, ofte het
filosofische onderzoek naar de grondslagen van de wiskunde. Sinds het begin van de 20ste eeuw
ondernam men pogingen om een formele logische basis te geven aan de rekenkunde. De
voornaamste figuur binnen deze traditie was David Hilbert. Hij axiomatizeerde de rekenkunde en
wilde aantonen dat zo’n lijst axioma’s consistent was. In 1931 toonde Gödel echter aan dat dat
laatste onmogelijk was. Zijn onvolledigheidstheorema drukte uit dat een funderende
metamathematische theorie nooit tegelijk consistent en volledig kan zijn. Dit houdt in dat er steeds
een stelling geformuleerd kan worden die waar is binnen de theorie, maar niet bewijsbaar. Dit
theorema verbrijzelde Hilberts formaliseringsdroom. Turing werkte verder aan deze verbrijzeling die
door Gödel ingezet was. Zijn legendarische paper handelde over het Entscheidungsprobleem of
beslissingsprobleem. Turing toonde aan dat het niet mogelijk is een algoritme te ontwikkelen dat
voor elke wiskundige propositie binnen één of andere formele taal kan beslissen of die propositie
waar of vals is. Turings paper is, in tegenstelling tot die van Gödel, echter niet de geschiedenis
ingegaan als een staaltje van destructieve genialiteit. Om zijn punt aan te tonen maakt hij namelijk
gebruik van wat we vandaag een Turingmachine noemen. Dit is een theoretische machine die elk
wiskundig probleem kan oplossen indien het als algoritme gerepresenteerd kan worden. Hij gaat
verder en definieert berekenbaarheid als iets dat door een Turingmachine in een eindig aantal
36 | P a g e
stappen kan opgelost worden (Turing, 1936). Het punt dat hier gemaakt wordt is dat het
beslissingsprobleem volgens deze definitie van berekenbaarheid niet berekend kan worden, maar de
implicaties van Turings idee gingen veel verder dan hij op dat moment had kunnen denken.
We gebruiken Bolter (1984, p. 57 e.v.) om de werkingsprincipes van de Turing-machine te
verduidelijken. Het is natuurlijk geen echte machine, het is een hypothetische constructie bestaande
uit een oneindige band, verdeeld in vakjes waarin iets geschreven of uitgewist kan worden. De
machine houdt zich steeds met één vakje tegelijk bezig. Afhankelijk van wat er in het vakje staat kan
de machine een bepaalde actie uitvoeren (wissen, schrijven, opschuiven) en in een andere toestand
terechtkomen. Dit is niet bepaald een efficiënte machine, maar het punt is net dat ingewikkelde
problemen door deze machine als een opeenvolging van eenvoudige stapjes opgelost kunnen
worden. De universele turingmachine is uiteindelijk de notie die tot de uitvinding van de computer
zou leiden. Alle Turing-machines die elk dienen voor het oplossen van één bepaald probleem, kunnen
samengesmolten worden tot één universele Turing-machine die alle berekenbare problemen kan
oplossen (Bolter, 1984, p. 59). John von Neumann zag hierin meer dan abstractie. Hij bouwde dan
ook de eerste echte computer.
Het verschil tussen deze machine en oudere uitvindingen zoals het uurwerk is dat het programma
hier samen met de gegevens opgeslagen wordt (Bolter, 1984, p. 53). Oudere machines krijgen als
input gegevens, die vervolgens verwerkt worden door het programma dat overeenkomt met de
architectuur van de machine, de positie die de verschillende raderen tegenover elkaar innemen. Een
verandering aan het programma zou een grote inspanning vereisen en komt in feite neer op het
bouwen van een andere machine voor een ander probleem. In een Von Neumann machine kan het
programma naar believen veranderd worden, net als de input. Dat maakt het mogelijk om met
eenzelfde apparaat een oneindige hoeveelheid problemen op te lossen.”Het vergelijkbare proces bij
een stoommachine zou erin bestaan dat men de raderen bij de kolen in het vuur zou gooien en zou
verwachten dat de machine zelf het ontwerp voor een nieuwe machine zou leveren” (Bolter, 1984, p.
54).
Het wordt tijd om even stil te staan bij de gevolgen van de uitvinding van de computer. Het ontwerp,
met een modificeerbaar programma en de daaruit volgende capaciteit om een veelheid aan
problemen op te lossen suggereerden een analogie met het menselijk denken. Turing zelf
introduceerde zijn idee van een ‘computing device’ destijds als analogie van een mens die berekent
en daarbij een reeks eindige regels volgt. Volgens hem is het oplossen van problemen ook niet meer
dan het volgen van een reeks eindige regels. En als wij het kunnen, kunnen we evengoed een
37 | P a g e
machine de opdracht geven het op dezelfde wijze te doen. De letterlijke betekenis van computer is
dan ook berekenaar. De computer evolueerde zeer snel en steeds meer taken die voordien enkel
door een mens uitgevoerd konden worden gingen nu ook tot de mogelijkheden van computers gaan
behoren. Dat zou natuurlijk impliceren dat de mens niet meer is dan een computer. Turing herdacht
het hele concept ‘intelligentie’ naar aanleiding hiervan. Het leek voor hem absurd dat intelligentie
inherent zou zijn aan het materiaal waaruit onze hersenen opgebouwd zijn. Een transcendentale
verklaring behoorde voor hem evenmin tot de mogelijkheden. Intelligentie, meer bepaald
probleemoplossend vermogen, ontstaat door de manier waarop de verschillende onderdelen van
onze hersenen (of van een computer) ten opzichte van elkaar geplaatst zijn en met elkaar
interageren. Deze constructie kan probleemloos nagebouwd worden met andere materialen, wat tot
dezelfde resultaten zou leiden. Zo ontstond het idee dat ons lichaam en onze hersenen
overeenkomen met wat bij een computer hardware wordt genoemd. Onze geest is dan de software.
Het werd gezien als het ultieme antwoord op Descartes’ dualisme. De software, de mind, is niet meer
dan een gevolg van een speciale ordening van materie. De mens is een machine, een
informatieverwerkend apparaat, dat symbolen ontvangt als input, bewerkingen uitvoert op die
symbolen en vervolgens een output genereert. De symbolen kunnen verwijzen naar dingen in de
buitenwereld en hebben dus een betekenis of semantiek. De regels volgens dewelke deze symbolen
worden bewerkt noemen we de syntax. Dit alles bracht Turing tot de vraag of machines ook zullen
kunnen denken en of we ook bij een computer van intelligentie kunnen spreken. Zijn bespiegelingen,
uiteengezet in een ietwat meer leesbare paper (Turing, 1950) hebben aanleiding gegeven tot het
ontstaan van het domein van de artificiële intelligentie.
Laten we het nu even hebben over computergeheugens. Vandaag is elke computer voorzien van een
intern en van een extern geheugen. Men gebruikt ook hier de termen primair en secundair. Het
primaire geheugen, of RAM-geheugen (random access memory) is rechtstreeks aangesloten op de
centrale verwerkingseenheid (CPU) van de computer. De informatie is onmiddellijk toegankelijk. De
CPU stuurt het gewenste adres naar het RAM-geheugen en leest vervolgens de informatie van dat
adres. Een extra memory management unit medieert tussen CPU en geheugen. Het externe
geheugen is wat wij kennen als de harde schijf. Terwijl het RAM-geheugen al haar informatie verliest
bij gebrek aan stroom behouden externe geheugens hun data. Toegang tot informatie gebeurt echter
veel trager. We zitten nu eerder binnen het bereik van milliseconden terwijl het RAM-geheugen
vrijwel meteen toegankelijk is.
38 | P a g e
b) Jerry Fodor’s antwoord op Descartes’ dualisme
Jerry Fodor is misschien wel de meest hardnekkige vertegenwoordiger van het cognitivisme en van
de computermetafoor, niet enkel voor het geheugen, maar voor de menselijke geest in het
algemeen. We bespreken hem aan de hand van Stern (1991). Het idee dat onze mind zich tegenover
ons brein verhoudt zoals software tegenover hardware werd overgenomen in het mainstream
cognitivisme. Fodor sprak van twee verschillende verklaringsniveaus (Stern, 1991). Er is het
intentionele niveau dat zich bezig houdt met de begrippen uit de alledaagse psychologie, namelijk
voelen, geloven, onthouden, verlangen, ... Daarnaast is er een computationeel verklaringsniveau. Op
dit niveau vinden we de interne programma’s die aanleiding geven tot het intentionele niveau. Zoals
Turing, ging ook Fodor ervan uit dat deze computationele processen in elk fysisch systeem dat
voldoende complex is, geïmplementeerd konden worden en dat ze steeds aanleiding zouden geven
tot dezelfde intentionele processen. Hij voerde een derde verklaringsniveau in dat de specifieke
drager waarin het programma aanwezig is beschrijft, namelijk het fysische niveau. Op deze door de
computer geïnspireerde visie is later erg veel kritiek gekomen. David Stern argumenteert dat dit het
probleem van het cartesiaanse dualisme helemaal niet oplost (Stern, 1991). Het is eerder een
herformulering van datzelfde probleem. Descartes sprak van een nauwe verwantschap in de mens
tussen geest en materie, maar aangezien dit voor hem twee verschillende conceptuele entiteiten
waren, was zijn grootste probleem te verklaren hoe de twee in de mens konden interageren met
elkaar. Voor Descartes was het punt van interactie de pijnappelklier in het centrum van de hersenen.
Dit antwoord heeft steeds tekort geschoten. Volgens Stern is de kloof tussen Fodor’s
verklaringsniveaus even onoverbrugbaar als die tussen geest en materie bij Descartes. Het
postuleren van een computationeel niveau dat de link tussen het fysische en het intentionele niveau
moet leggen is niet meer dan “de pineal gland of contemporary mentalism” (Stoutland, zoals
geciteerd in Stern, 1991). Volgens Stern heeft dit “unrecognized dualism” gezorgd voor “the dogma
of the language of thought and a distorted conception of mind and brain” (Stern, 1991). Later zullen
we op de paper van Stern terugkomen. Hij ziet namelijk een oplossing voor dit probleem in de
connectionistische modellen van ons brein.
c) Het model van Atkinson en Shiffrin (1968)
Het wordt tijd om terug te keren naar de geheugenpsychologie. Het ontstaan van het cognitivisme en
de uitvinding van de computer hebben dit domein zwaar beïnvloed. In 1968 publiceerden Richard
39 | P a g e
Atkinson en Richard Shiffrin een paper getiteld ‘Human Memory: a proposed system and its control
processes’. Hierin zetten deze heren een geheugenmodel uiteen dat het Dual-Store Model werd
gedoopt. Het was voor de geheugenpsychologie één van de invloedrijkste papers van de voorbije
eeuw. Het model bleef dominant gedurende de hele jaren 70 en oefent tot op vandaag veel invloed
uit op de studie van het geheugen. Voor ons is het de prototypische vertegenwoordiger van de
computermetafoor voor het geheugen.
Om het model te beschrijven maken we gebruik van een paper die Atkinson en Shiffrin in 1969
publiceerden. Deze paper omvat een herhaling van de architectuur en werkingsprincipes van hun in
1968 uitgewerkte model. Daarnaast wordt dieper ingegaan op verschillende onderdelen.
Het model bestaat uit structurele componenten en controleprocessen. De structurele componenten
komen overeen met die gebieden in het brein die instaan voor de opslag van informatie. Er zijn drie
belangrijke systemen wiens samenwerking ons geheugen moet verklaren (zie figuur 2). Ten eerste is
er het sensorisch geheugen. De informatie afkomstig van de zintuigen passeert eerst doorheen dit
systeem en blijft daar enkele milliseconden hangen. Voor elke zintuigelijke modaliteit bestaat een
verschillend sensorisch geheugen. Atkinson en Shiffrin namen wat betreft het sensorisch geheugen
voor visuele informatie in grote lijnen het model van George Sperling (1960) over. Deze sprak van het
iconisch geheugen. Dit geeft de beelden die op ons netvlies vallen een eerste soort blijvendheid. Ze
blijven nog even nagalmen, en kunnen daarna doorgegeven worden naar de tweede structurele
component van ons geheugen, het kortetermijngeheugen (KTG). Dit komt overeen met wat Baddeley
later het werkgeheugen heeft genoemd (infra) en het is in grote lijnen het primaire geheugen waar
William James van sprak. Bij een computer zouden we spreken van het RAM-geheugen. Dit zal later
een
mooie
analogie
blijken.
Informatie
blijft
gemiddeld
zo’n
30
seconden
in
het
kortetermijngeheugen hangen, maar bewuste processen kunnen deze tijd verlengen (Atkinson &
Shiffrin, 1969, p. 180). De derde component van de structuur van het menselijk geheugen is dan
natuurlijk het secundaire geheugen, of in moderne bewoording, het langetermijngeheugen (LTG). Dit
is een systeem waarin informatie permanent wordt opgeslagen (Atkinson & Shiffrin, 1969, p. 180).
40 | P a g e
Figuur 2: De architectuur van het model van Atkinson en Shiffrin.
Belangrijker echter dan deze structurele componenten zijn de controleprocessen van het model.
Atkinson en Shiffrin postuleren een subject dat erg veel bewuste controle heeft over het geheugen.
Ten eerste vindt er al een selectie plaats in de overdracht van informatie van het sensorisch naar het
kortetermijngeheugen. Het proces dat we opslag of retentie noemen is de overdracht van informatie
van het korte- naar het langetermijngeheugen. Relevante stukken informatie worden geselecteerd,
vervolgens gekopieerd en daarna opgeslagen. Alles wat permanent in het langetermijngeheugen
opgeslagen ligt is eerst door het kortetermijngeheugen gepasseerd. Parallel aan dit proces maar in de
andere richting hebben we het ophalingsproces, waarbij informatie terug van uit het lange- naar het
kortetermijngeheugen wordt gekopieerd, omdat we ze nodig hebben in één of andere taak. Kopiëren
is hier het juiste woord. Na opslag blijft de informatie in het KTG tot ze verloren gaat door het
normale vervalproces. Na ophaling blijft de informatie uiteraard in het LTG. Eens daar opgeslagen
kan ze nooit meer verloren gaan. Vergeten is volgens dit model volledig te wijten aan
ophalingsproblemen en niet aan het vervallen van informatie in het LTG. Hier zien we al een eerste
analogie met de computer. Het langetermijngeheugen is een soort harde schijf waarop grote
hoeveelheden informatie correct en permanent bewaard kunnen worden. Wanneer we echter de
locatie van een stukje informatie kwijt zijn, kan ze niet meer naar het KTG gekopieerd worden en
41 | P a g e
spreken we van vergeten, hoewel die informatie zich nog steeds in ons langetermijngeheugen
bevindt. (Atkinson & Shiffrin, 1969)
Een ander voorbeeld van een controleproces is herhaling. Het is de manier om informatie voor langer
dan de normale duur in het KTG te houden. We kunnen bijvoorbeeld een telefoonnummer langer
onthouden als we het in ons hoofd herhalen. Hiervoor is volgens dit model een repetitiebuffer
aanwezig in het KTG (Atkinson & Shiffrin, 1969, p. 180). Nu krijgt de informatie ook langer de kans
opgeslagen te worden in het LTG.
Na deze algemene uiteenzetting, gaan Atkinson en Shiffrin dieper in op hoe zoekprocessen in ons
geheugen juist verlopen. Ze voeren zelf een analogie in met de computer, deze keer om aan te tonen
wat het verschil is. Een computergeheugen is locatie-adresseerbaar. Dat wil zeggen dat wanneer we
een locatie aanbieden, het systeem ons de inhoud van die locatie als output geeft. Wanneer we
enkel een deel van de inhoud beschikbaar hebben en de hele inhoud willen ophalen, moet een
computergeheugen alle locaties afzoeken tot de juiste informatie gevonden wordt. Het menselijk
geheugen werkt niet op deze manier. Wanneer we iemand herkennen op straat is het niet zo dat we
eerst zijn gezicht vergelijken met alle gezichten in ons geheugen tot we een match vinden. Ons
geheugen is als het ware inhoudsadresseerbaar. Atkinson en Shiffrin werken een theorie uit waarin
de processen van opslag en ophaling parallel verlopen via bepaalde organisatorische dimensies. Een
stukje informatie wordt niet at random ergens in het LTG opgeslagen, maar wel volgens bepaalde
principes. Een voorbeeld is de temporele dimensie, gebeurtenissen die in de tijd dicht bij elkaar
liggen, liggen ook in het LTG dicht bij elkaar. Er is ook organisatie in termen van zintuigelijke
modaliteit, beelden bij beelden, klanken bij klanken, geuren bij geuren. Dit is een organisatorisch
principe dat we reeds bij Augustinus vonden. En zo zijn er nog verschillende andere organisatorische
dimensies die als tag samen met de informatie worden opgeslagen. Aangezien ophaling volgens
dezelfde principes werkt als opslag maar in de andere richting kan het zoekproces veel efficiënter
verlopen. Wanneer we weten naar wat voor informatie we op zoek zijn of wanneer we die informatie
opgeslagen hebben kunnen we ons zoekgebied al merkbaar verkleinen en onze zoektocht
vergemakkelijken. Zelf gebruiken Atkinson en Shiffrin als analogie een bibliotheek (Atkinson &
Shiffrin, 1969, p. 181). Wanneer we een bepaald boek zoeken gebruiken we dezelfde principes die
we gebruikten bij het ‘opslaan’ van de boeken. We weten ongeveer op welke verdiepingen en in
welke kasten we moeten gaan zoeken en dat bespaart ons veel moeite. Op deze manier wilden ze de
inhoudsadresseerbaarheid van ons geheugen verklaren. Zoals al eerder vermeld werd, speelt het
subject een grote rol in dit proces. Het manipuleert de informatie in het kortetermijngeheugen,
selecteert een organisatorische dimensie en slaat de informatie aan de hand van die dimensie op in
42 | P a g e
het LTG. Welk organisatorisch schema geselecteerd wordt uit de vele mogelijkheden hangt af van
toeval en van contextuele factoren. Stel dat het woord ‘raket’ deel uitmaakt van een van buiten te
leren lijst. We zullen dat woord op een andere plaats in het LTG opslaan wanneer het vergezeld is
van de woorden ruimtereis, maan, apollo, platform dan wanneer het vergezeld is van de woorden
tennis, net, snaren, forehand. Aangezien ophaling volgens dezelfde principes verloopt als opslag en
opslag gebeurt aan de hand van een variabel organisatorisch schema, zal dat schema samen met de
informatie opgeslagen moeten worden om ophaling optimaal te maken.
Verder in het artikel wordt een beschrijving gegeven van hoe het geheugen kan falen. Zoals al
vermeld werd, gaat dit model ervan uit dat vergeten niet te wijten is aan het graduele verval van
informatie, maar aan een probleem met het lokaliseren bij ophaling. In een mensenleven wordt
steeds meer informatie opgeslagen. Organisatorische schema’s geven ons een idee van de plaats
waar we moeten gaan zoeken, maar hoe voller het geheugen wordt, hoe meer informatie er
opgeslagen zal zijn in het relevante stuk van het LTG, en hoe langer de zoektocht zal duren. Hoewel
alles zorgvuldig volgens verschillende principes wordt gearchiveerd, zorgt de veelheid aan informatie
er op langere termijn voor dat we kunnen falen in het ophalen van een gezochte herinnering
(Atkinson & Shiffrin, 1969, p. 185). Om terug te keren naar de analogie: we kunnen onze zoektocht
wel beperken tot één boekenplank van onze bibliotheek, maar als die plank bomvol ligt met boeken
die allemaal op elkaar lijken, zullen we veel meer moeite hebben het juiste boek te lokaliseren.
We hebben er nog niet expliciet bij stilgestaan, maar het is ondertussen wel duidelijk dat dit model
uitgaat van een lokaal opslagmechanisme. Met een bepaalde herinnering komt dus een bepaald
stukje hersenen overeen. Bij Descartes hadden we het over gedistribueerde informatie en over
verscheidene herinneringen in hetzelfde fysisch substraat. Dit zien we later terug in het
connectionisme, een reactie op onder meer deze lokale opslag. Atkinson en Shiffrin definiëren een
code of image als een coherent geheel van informatie dat gerelateerd is en dat bijna altijd als geheel
opgehaald wordt (Atkinson & Shiffrin, 1969, p. 182). De organisatie van het geheugen, hierboven
uiteengezet, impliceert dat zo’n code in één locatie opgeslagen is. Dit is hoe een computergeheugen
werkt. Atkinson en Shiffrin willen niet gezegd hebben dat een code een soort eenheid van opslag is,
het is een variabel iets, afhankelijk van de uit te voeren taak, maar ze houden wel vast aan dit begrip
omdat het handig blijkt (Atkinson & Shiffrin, 1969, p. 182). Ze verwijzen ook naar Bower (1967) die
een code definieert als een vector van attributen, waarin zowel de informatie als haar locatie
opgeslagen liggen. De waarden van die attributen geven de positie van de code weer op de
verschillende organisatorische dimensies.
43 | P a g e
Laten we tenslotte even expliciet de link tussen dit geheugensysteem en dat van een computer
leggen. Het langetermijngeheugen is de harde schijf waarop vanalles georganiseerd is opgeslagen,
maar elk item heeft een specifieke locatie. Het kortetermijngeheugen is het RAM-geheugen. Nieuwe
informatie passeert erdoor en krijgt een plaats toegewezen op de harde schijf. Het RAM-geheugen
selecteert, organiseert en archiveert. Wanneer we iets opnieuw nodig hebben wordt het van op de
harde schijf naar het RAM-geheugen gekopieerd waarna het naar believen verwerkt kan worden. De
verwerkte informatie kan dan weer weggeschreven worden naar onze harde schijf. Andere
eigenschappen van het menselijk geheugen, zoals de inhoudsadresseerbaarheid, volgen dan weer
niet automatisch uit de computeranalogie. Om het model deze eigenschappen te geven moeten ze
uitgebreid geprogrammeerd worden. Dat maakt het geheel een stuk complexer. Het connectionisme
zou later ook op dit probleem een antwoord bieden. De grote populariteit van het Atkinson en
Shiffrin model en deze overduidelijke analogie met het computergeheugen, hebben er mede voor
gezorgd dat de computermetafoor voor de menselijke geest tot op de dag van vandaag wijdverspreid
is.
d) Het werkgeheugen
Het werkgeheugen komt ongeveer overeen met wat Atkinson en Shiffrin het kortetermijngeheugen
noemden. Een verschil is dat het werkgeheugen meer is dan opgeslagen informatie. Het wordt
tevens naar voren geschoven als de belangrijkste component van aandacht en bewustzijn. Het is de
zetel van ons onmiddellijk denken. De plaats waar taak-relevante informatie lang genoeg blijft
hangen om ze te gebruiken in onze acties. De opslagcapaciteit is beperkt, wat dwingt tot selectie van
het belangrijkste. Metaforen voor het werkgeheugen zijn bijvoorbeeld een werkplaats, een
schrijfbord, een projectiescherm. Onderzoek naar het neurologisch substraat van deze theoretische
constructie is vandaag alomtegenwoordig. Er is discussie op verschillende vlakken. Is het
werkgeheugen het actieve gedeelte van het langetermijngeheugen of is het een autonoom gebied?
Bestaat het uit verschillende componenten of is het unitair? Hoe wordt de aanwezige informatie
geselecteerd? Een poging tot het beantwoorden van bovenstaande vragen kunnen we lezen in
Models of Working Memory: Mechanisms of Active Maintenance and Executive control, een
verzameling papers, samengebracht door Akira Miyake en Priti Shah, waarin verschillende
geheugenmodellen uitgewerkt worden. Het meest dominante model is er echter één dat al in 1974
door Baddeley en Hitch werd opgesteld. Om dat model uiteen te zetten gebruik ik één van de papers
44 | P a g e
uit Miyake en Shah (1999) die Alan D. Baddeley schreef samen met Robert H. Logie. Het originele
model van Baddeley en Hitch wordt daarin beschreven en verder uitgewerkt.
Deze heren geven volgende definitie van het werkgeheugen: “It comprises those functional
components of cognition that allow humans to comprehend and mentally represent their immediate
environment, to retain information about their immediate past experience, to support the
acquisition of new knowledge, to solve problems, and to formulate, relate, and act on current goals”
(Baddeley & Logie, 1999, pp. 28-29). De belangrijkste eigenschap van het model is dat deze
verschillende taken verdeeld worden over verschillende componenten van het werkgeheugen. Dit
model wordt dan ook het Multiple-Component Model genoemd. Ten eerste is er een centrale
executieve die zelf niets opslaat maar wel controle uitoefent over de andere deelsystemen van het
werkgeheugen. Zij staat tevens in voor het ophalen van taakrelevante informatie uit het
langetermijngeheugen en het selecteren van ophalingsstrategieën. Het is kortom het mechanisme
dat bepaalt waar onze aandacht op gevestigd is. Het heeft alle functies die Atkinson en Shiffrin aan
het subject toekenden. De centrale executieve oefent dus bewuste controleprocessen uit.
Vervolgens zijn er twee slaafsystemen die gestuurd worden door de centrale executieve. Ten eerste
is er de fonologische lus, die gespecialiseerd is in het opslaan en oefenen van verbale informatie. Het
andere slaafsysteem is de visuospatiale kladblok, waar onmiddellijke visuele en spatiale informatie
verwerkt wordt. Baddeley en Logie breiden de componenten van dit model nog verder uit. De
subcomponenten van het werkgeheugen kunnen volgens hen nog verder opgesplitst worden in
functionele delen. Zo zou de fonologische lus uit een passieve opslagmodule en een actieve
repetitiebuffer bestaan (Baddeley & Logie, 1999, p. 32). Ook de centrale executieve en de
visuospatiale kladblok bestaan uit verschillende subcomponenten.
Een alternatieve theorie rond het kortetermijngeheugen die uitgewerkt werd door Shiffrin en
Schneider, wordt beschreven in Craik (1979). Dit geheugen krijgt dezelfde functies als het
werkgeheugen, namelijk cognitieve controle, het oplossen van problemen, het verdelen van
aandacht en het onthouden van taakrelevante informatie. Deze theorie geeft echter geen
anatomische onafhankelijkheid aan het kortetermijngeheugen en ziet dit als een geactiveerde subset
van het langetermijngeheugen. Alle eigenschappen van inkomende stimuli activeren hun
representaties in het langetermijngeheugen. Dit doen ze allemaal in gelijke mate, zonder dat er een
selectieprocedure aan vooraf gaat. Pas hierna wordt via aandachtsmechanismen een deel van de
informatie geselecteerd opdat deze geactiveerd kan blijven, gebruikt kan worden en indien nodig
opgeslagen kan worden in het langetermijngeheugen. Dat laatste komt volgens dit model overeen
45 | P a g e
met de vorming van nieuwe associaties. Informatie waar verder geen aandacht aan geschonken
wordt vervalt. (Craik, 1979, p. 74)
46 | P a g e
e) Psychologische experimenten
We hebben het nog onvoldoende gehad over het revolutionaire karakter van het werk van Hermann
Ebbinghaus en de veranderingen die de geheugenpsychologie ondergaan heeft als gevolg hiervan.
Zijn wiskundig, formele, experimentele benadering van de geheugenpsychologie heeft de toon gezet
voor al het onderzoek dat sindsdien gebeurd is. Sinds de jaren 60 komt de geheugenpsychologie neer
op een opeenvolging van wiskundige modellen die zo goed mogelijk de experimentele data trachten
te verklaren. Een voordeel van formele modellen is dat ze intern consistent moeten zijn, en
consistentie ligt niet altijd voor de hand in intuïtieve modellen (Neath, 1998, p. 233). Hiernaast
bestaat er nog een hele reeks criteria waaraan een geheugenmodel getoetst wordt. Dus naast
consistentie hebben we nog empirische toereikendheid – verklaart het model de empirische
bevindingen van experimenten? – en neurologische plausibiliteit – komt de structuur van het model
overeen met de structuur van de hersenen? Dat laatste criterium vormt een van de belangrijkste
redenen voor de opkomst van het connectionisme.
Het criterium van empirische toereikendheid is uiteraard alomtegenwoordig binnen de wetenschap.
Meer zelfs, een wetenschappelijke theorie kan maar geloofwaardig zijn wanneer er empirisch
bewijsmateriaal voor bestaat. Dezelfde mensen die de theoretische modellen opstelden, waarvan we
er hierboven enkele hebben besproken, voerden dus ook experimenten uit. Hoe groter het reservoir
aan experimentele resultaten werd, hoe complexer de geheugenmodellen zouden moeten worden.
We beschrijven een reeks experimenten aan de hand van Neath (1998). Baddeley (1966) wilde
bijvoorbeeld aantonen dat de dominante code waarmee ons werkgeheugen geëquipeerd is,
akoestisch is (Neath, 1998, p. 56). Hij ging als volgt te werk: hij stelde vier soorten van woordlijsten
op. De eerste bevatte woorden die fonologisch gelijkaardig waren, bijvoorbeeld hok, bok, bol, rok, ...
De tweede lijst was een controlelijst van woorden die ongeveer dezelfde frequentie hadden in
dagdagelijkse gesprekken maar die van elkaar verschilden in klank. De derde lijst bestond uit
verschillende woorden met dezelfde betekenis en de vierde lijst opnieuw uit even frequente
woorden die niets met elkaar te maken hadden. Baddeley liet zijn proefpersonen deze vier lijsten van
buiten leren en keek vervolgens voor elke lijst naar de proportie die achteraf correct werd
onthouden. Zijn vermoedens werden bevestigd door het feit dat deze proportie voor lijst 1 het
zwakst was. Dat betekent dat de klank van woorden invloed heeft op het werkgeheugen en de
betekenis veel minder. Deze hypothese bevestigt het belang van de fonologische lus in Baddeley’s
model (supra).
47 | P a g e
Een ander bekend onderzoek dat door Neath besproken wordt, was dat van George Miller (1956).
Zijn vandaag legendarische paper kreeg de naam ‘The magic number seven, plus or minus two’ omdat
hij aantoonde dat we slechts 7 (plus of min 2) brokken informatie tegelijk in ons geheugen kunnen
vasthouden. De opslagcapaciteit van ons kortetermijngeheugen werd dus onderzocht (Neath, 1998,
p. 57). Dit gebeurde door de proefpersonen een reeks cijfers voor te schotelen die ze daarna
onmiddellijk moesten herhalen. Miller kwam bij het getal 7 terecht omdat dat het aantal was dat
50% van de tijd foutloos herhaald kon worden. Hij ontmoette de 7 opnieuw in een experiment
waarbij proefpersonen onderscheid moesten maken tussen stimuli die van elkaar verschilden volgens
één enkele dimensie, bijvoorbeeld geluiden met hogere en lagere frequenties. Ook daar begon men
fouten te maken vanaf ongeveer 7 verschillende stimuli. Een derde pijler waarop deze paper steunde
was de chunk, of brok, van informatie (Neath, 1998, p. 58). We kunnen het aantal items dat
opgeslagen kan worden in ons kortetermijngeheugen drastisch vergroten door verschillende items
tezamen te smelten tot één item. De lijst van volgende letters ‘KATSCHOENKERKEER’ zouden we niet
kunnen onthouden als we elke letter als één chunk behandelden, maar wanneer we het geheel
opsplitsen in delen die voor ons een betekenis hebben, bijvoorbeeld ‘KAT SCHOEN KERK EER’ worden
de lijsten die we uit het hoofd kunnen opzeggen beduidend langer. Dat verklaart ook waarom we een
telefoonnummer in delen opsplitsen wanneer we het dicteren of willen onthouden.
Onderzoek naar hoe lang informatie in het kortetermijngeheugen blijft, en na hoe lang ze dus
verloren gaat, heeft geleid tot het Brown-Peterson Paradigma (Neath, 1998, p. 59). Dit is een
algemene procedure die uit volgend experiment ontstaan is: proefpersonen krijgen drie
medeklinkers en drie cijfers voorgeschoteld. Ze krijgen de opdracht terug te tellen per 3 vanaf het
getal dat uit de drie cijfers bestaat voor een variabele tijd. Na die tijd werd gevraagd naar de 3
medeklinkers, in volgorde. Het doel van het terugtellen was voorkomen dat de medeklinkers
geoefend of herhaald werden, zodat we te weten kunnen komen hoe lang ze op zichzelf blijven
hangen. Uit de resultaten blijkt dat reeds na 18s slechts 10% van de informatie onthouden wordt. Dat
impliceert dat informatie heel rap verloren gaat in het kortetermijngeheugen.
Het laatste experimentele resultaat dat we zullen bespreken is erg belangrijk. Een goed model moet
het dan ook kunnen verklaren. Wanneer we een reeks testsubjecten een lijst laten lezen, ze vragen
zo veel mogelijk items uit die lijst in willekeurige volgorde te herhalen en vervolgens de resultaten in
een curve gieten die het aantal correcte items uitzet tegen de seriële positie van de items, bekomen
we enkele interessante resultaten. Het komt er dus op neer dat de ophaling van een item afhankelijk
is van de positie die dat item binnen de lijst heeft. Dat wordt het serial position effect genoemd
(Neath, 1998, pp. 67-68). Twee noemenswaardige instanties hiervan zijn het primacy effect en het
48 | P a g e
recency effect. Het primacy effect houdt in dat items aan het begin van een lijst gemiddeld beter
onthouden worden. Het recency effect stelt dat items aan het einde van een lijst gemiddeld beter
onthouden worden. Deze effecten treden op ten nadele van de items die zich eerder centraal
bevinden. De meest populaire verklaring is dat items aan het begin van de lijst meer tijd en meer
middelen hebben om geconsolideerd te worden in het langetermijngeheugen en dat items aan het
einde nog in het kortetermijngeheugen aanwezig zijn op het moment van ophaling. Dat laatste blijkt
ook wanneer we repetitie uitschakelen volgens het Brown-Peterson paradigma. In dit geval blijft het
primacy effect behouden terwijl het recency effect verdwijnt. Het model van Atkinson en Shiffrin
verklaart deze effecten op min of meer dezelfde manier. De eerste items kunnen meer gerepeteerd
worden en hebben dus een grotere kans opgeslagen te worden in het langetermijngeheugen. De
repetitiecapaciteit wordt namelijk steeds eerlijk verdeeld over alle in het KTG aanwezige items.
Aangezien de eerste items even alleen of met een klein groepje aanwezig zijn, worden ze meer
gerepeteerd. Het recency effect onstaat gewoon door het dumpen van wat nog in de buffer van het
kortetermijngeheugen zit.
f) Het evolueren van de modellen
Bovenstaande en vele andere experimentele gegevens moesten in rekening gebracht worden bij het
opstellen van nieuwe wiskundige modellen. Met de opkomst van parallele verwerking en
connectionistische netwerken kwam de nadruk meer te liggen op het langetermijngeheugen (infra).
Het Atkinson en Shiffrin model verloor invloed en nieuwe modellen werden ontwikkeld. In 1981
stelden Raaijmakers en Shiffrin het SAM-model op, dit staat voor Search of Associative Memory. Het
wordt gezien als de afstammeling van het Atkinson en Shiffrin model met een conceptuele
uitbreiding van het langetermijngeheugen (Estes, 1998, p. 609). We gebruiken Neath (1998) voor een
beschrijving van dit model.
Het geheugen bestaat uit wat de auteurs images noemen. Een image is een interconnected feature
set, dat wil zeggen een geïntegreerd geheel van samenhangende informatie over een bepaald
geheugenitem (Neath, 1998, p. 234). Dat houdt dus in: informatie over het item zelf, haar naam,
betekenis, informatie over de context waarin we ermee in contact kwamen, haar relatie met andere
items, enzovoort. Alle items, contexten en images die deel zijn van onze levensgeschiedenis en dus in
ons langetermijngeheugen zitten, zijn verbonden met elkaar via connecties met variabele kracht.
Associaties tussen bepaalde entiteiten in ons geheugen (images, items, context, ...) kunnen versterkt
49 | P a g e
worden door co-activatie van die entiteiten. We herkennen de regel van Hebb, en de duidelijke
invloed die het connectionisme ging uitoefenen op geheugenmodellen (infra). In het model houdt
deze co-activatie in dat beide entiteiten gedurende een bepaalde tijd samen in de repetitiebuffer van
het kortetermijngeheugen aanwezig zijn. Hoe langer dat duurt, hoe sterker de associatie tussen de
twee zal zijn. Zoals in het model van Atkinson en Shiffrin, en zoals een van bovenstaande
experimenten aantoont, heeft die repetitiebuffer slechts een eindige en relatief kleine capaciteit,
zodat er steeds een competitie is tussen de verschillende entiteiten met als prijs aanwezigheid in de
buffer en met als gevolg versterking van connecties in het langetermijngeheugen. (Neath, 1998)
Wanneer we bijvoorbeeld een foto van een kennis zien en gevraagd worden zijn naam te geven, dan
zal de image die het gezicht representeert dienen als retrieval cue in de repetitiebuffer en via de
connecties in het LTG activatie propageren naar alle images in het geheugen, maar afhankelijk van de
kracht van de connecties zullen sommige images meer geactiveerd worden dan andere. Herkenning
van de foto en het herinneren van de naam kan binnen dit model optreden wanneer de activatie van
een bepaalde image een drempelwaarde overschrijdt. (Estes, 1998, p. 609)
Een ander geheugenmodel dat door Neath beschreven wordt, MINERVA 2, ontwikkeld in 1984 door
Hintzman, verkleint de rol van het kortetermijngeheugen nog meer. Hier wordt een herinnering niet
sterker door het versterken van haar connecties, maar wel door het creëren van meerdere kopieën
van die herinnering. Herkenning treedt als volgt op. Er wordt een ‘probe’, een soort cue, aangediend
en deze wordt vervolgens parallel en dus tegelijk vergeleken met alle sporen in het
langetermijngeheugen. De activatie van een bepaald spoor hangt af van haar gelijkenis met de
probe. Er wordt een echo naar het kortetermijngeheugen gestuurd. De intensiteit en de inhoud van
die echo worden volledig bepaald door de activatie van sporen en dus door de geheugensporen die
het meest lijken op de probe. De gelijkenis tussen echo en probe zal echter nooit volledig zijn. Dat is
een voordeel van het model aangezien de echo kan dienen als probe bij het oproepen van een
nieuwe echo, die ook op zijn beurt kan dienen als probe in een volgend proces. Zo kan één probe
aanleiding geven tot een cascade van opgehaalde herinneringen. (Neath, 1998, p. 242)
Een belangrijke troef van MINERVA 2 is dat er geen onderscheid gemaakt dient te worden tussen het
episodisch en het semantisch geheugen. Het eerste heeft betrekking op onze persoonlijke
herinneringen, de episodes die we in ons leven hebben meegemaakt. Het semantisch geheugen
bestaat uit algemene kennis. Volgens Hintzman, zegt Neath, bevat het langetermijngeheugen enkel
episodische geheugensporen en is het semantisch geheugen, het onthouden van abstracte
informatie het statistische gevolg van een veelheid van concreta (Neath, 1998, p. 244). Abstracte
50 | P a g e
representaties zijn gewoon een neveneffect van de manier waarop concrete sporen geactiveerd
worden bij ophaling. Aangezien alle sporen in mindere of meerdere mate bijdragen tot de intensiteit
en inhoud van de echo bestaat die echo uit een soort statistisch patroon dat, volgens Hintzman,
overeenkomt met de representatie van abstracte kennis. En dat terwijl die kennis zelf nergens terug
te vinden is in het langetermijngeheugen.
Een fundamentele eigenschap van al deze modellen blijft dat ze gebaseerd zijn op de principes die
Turing uitwerkte. Ze gaan ervan uit dat de menselijke geest, net zoals de computer, een logisch
informatieverwerkend systeem is. Het gevolg is dat deze modellen makkelijk logische operaties
kunnen uitvoeren, zoals redeneren en berekenen. Een nadeel is dan weer dat andere typisch
menselijke eigenschappen zoals patroonherkenning of het associatief doorzoeken van het geheugen
enorm moeilijk te programmeren zijn binnen deze modellen. Dat geeft ze een enorme complexiteit.
Een fundamenteel verschillende aanpak is die van het connectionisme. Hier wordt vertrokken van
een simpele patroonherkenner, zodat deze menselijke capaciteiten volgen uit een eenvoudige
structuur. Het implementeren van logisch probleemoplossend vermogen is echter een stuk
moeilijker (infra).
4) Een nieuwe benadering: het connectionisme
Zoals reeds meerdere keren angehaald, ontstond in de jaren 80 een alternatieve zienswijze. De
computermetafoor bleek tekort te schieten om vele typisch menselijke kenmerken te verklaren. De
mens werkt nu eenmaal niet zoals een computer. Ons denken en ons geheugen zijn feilbaar, een
simpele rekenmachine lost duizend maal sneller wiskundige problemen op dan wij dat ooit zullen
kunnen. En omgekeerd bleek ook hoe complex en ingewikkeld het is om computers dingen aan te
leren die wij onmiddellijk en zonder nadenken voor mekaar krijgen. Het herkennen van een persoon
of een voorwerp, het begrijpen en produceren van taal, het leren van categorieën zijn enkele
voorbeelden hiervan.
De hypothese dat onze geest volgens dezelfde logische principes te werk gaat als een computer zou
moeten worden opgegeven. Een simpel netwerk werd in de plaats gesteld. Al snel bleken vele van de
eigenschappen die in het vorige paradigma onnoemelijk complex waren gewoonweg te volgen uit de
architectuur van deze netwerken. Logisch redeneren en probleemoplossend denken, kortom
eigenschappen die volgen uit de architectuur van de computer, bleken dan weer veel minder
makkelijk implementeerbaar. Maar de voordelen van deze benadering bleken zo talrijk en belangrijk
51 | P a g e
dat we weldegelijk van een paradigmawissel kunnen spreken (Bechtel & Abrahamsen, 1991, p. 1). In
volgend onderdeel zullen we dit alternatief dan ook uitgebreid bespreken.
a) Het hologram
Zoals we in deel II van deze paper al grondig aangetoond hebben, is er niets handiger dan een
metafoor om de werking van een theorie te verduidelijken. De metafoor die een en ander van de
werking van connectionistische modellen verduidelijkt is het hologram. Deze vorm van opslag, vertelt
Draaisma ons, werd in 1948 door de fysicus Dennis Gabor uitgedacht (Draaisma, 1995, p. 214). Het
principe gaat als volgt. Een monochromatische lichtstraal wordt in twee gesplitst, de ene straal, de
referentiestraal, valt meteen op de fotografische plaat, de tweede, de voorwerpstraal, wordt eerst
weerkaatst door het te registreren voorwerp. Het interferentiepatroon van deze twee stralen wordt
vastgelegd in een aantal groeven en uitstulpingen op de plaat. Het voorwerp kan nu in drie dimensies
opgehaald worden door de referentiestraal op de plaat te laten schijnen. Deze holografische opslag
heeft enkele opmerkelijke eigenschappen. Ten eerste is ze gedistribueerd. Dat houdt in dat er geen
één op één afbeelding is van voorwerp op afbeelding, zoals bij de fotografie. Een bepaalde locatie
binnen het geregistreerde voorwerp is terug te vinden op plaatsen over het gehele hologram. Een
gevolg is dat schade aan het hologram niet leidt tot het verdwijnen van een deel van de afbeelding,
maar tot een lichte vervaging van het geheel. Deze manier van opslag is dus erg schadebestendig,
een eigenschap die onmiddellijk analogieën oproept met het menselijk geheugen. Een tweede
eigenschap is de grote opslagcapaciteit. In eenzelfde holografische plaat kunnen vele afbeeldingen
worden opgeslagen. Elk heeft als het ware zijn eigen referentiestraal. Bovendien kunnen
afbeeldingen die samen opgeslagen werden bij ophaling een ‘ghost image’ van elkaar veroorzaken
(Draaisma, 1995, p. 217). Dat wil zeggen dat de ene afbeelding automatisch aanleiding geeft tot het
activeren van een andere afbeelding, iets wat ons aan associatie doet denken.
De metafoor van het hologram werd in 1963 voor het eerst gebruikt door Pieter Jacobus Van
Heerden (Draaisma, 1995, p. 218). Enerzijds was Van Heerden een aanhanger van het cognitivisme,
maar anderzijds zag hij in de analogie met het hologram een geheel nieuwe manier waarop de
menselijke geest zou kunnen werken. De mathematische bewerkingen die uitgevoerd werden door
het hologram, namelijk het tegelijk parallel berekenen van interferentie tussen lichtstralen, kon de
snelheid waarmee het menselijk brein werkt verklaren. Om een computer even snel en efficiënt te
laten werken is een enorme computationele kracht nodig die we ons zelfs vandaag nog niet kunnen
52 | P a g e
voorstellen. Processen die in een computermodel geprogrammeerd moeten worden, zoals
bijvoorbeeld associatie of inhoudsadresseerbaarheid, volgen vrijwel automatisch uit het
hologrammodel. Rest nog de vraag hoe letterlijk we deze analogie moeten opvatten. We kunnen er
immers van uit gaan dat de hersenen niet werken volgens optische principes. Van Heerden ging
ervan uit dat de elektrische impulsen in het brein, of hersengolven, effectief met elkaar interferen en
zo aanleiding geven tot holografische opslag.
b) Neurale netwerken
De eerste theorieën rond neurale netwerken ontstonden in de tijd van de cognitieve revolutie en van
de computermetafoor. Deze benadering ging nog veel meer uit van de ware architectuur van het
brein. Zoals we gezien hebben leggen de volgelingen van Turing de nadruk vooral op
symboolmanipulatie. De hersenen zijn een soort verwerkingseenheid die symbolen als input krijgt, er
bewerkingen op uitvoert en als output intelligent gedrag geeft. Dit programma kan uitgevoerd
worden op verschillende manieren. Verschillende architecturen zijn mogelijk. In theorie kunnen we
een computer bouwen die menselijk gedrag imiteert. De andere benadering waarover we het
hadden focust zich echter op de neurale netwerken die echt in ons brein aanwezig zijn en probeert
intelligent gedrag te bekomen door het simuleren van zulke netwerken. Deze stroming wordt
vandaag het connectionisme genoemd. Hoewel ze ten tijde van de cognitieve revolutie ontstond,
moest ze wachten op de publicatie van ‘Parallel Distributed Processing’ van McClelland en Rumelhart
in 1986 eer ze echt populair werd en voor een kuhniaanse omwenteling kon zorgen (Bechtel &
Abrahamsen, 1991, p. 2).
We beschrijven het ontstaan en de evolutie van deze benadering aan de hand van het boek
Connectionism and the Mind van William Bechtel en Adele Abrahamsen.
Het idee van een artificieel neuronaal netwerk, vertellen ze, kwam van Warren McCulloch en Walter
Pitts. In 1943 publiceerden zij een paper waarin de fundamenten gelegd werden. Neuronen werden
vervangen door simpele binaire units. Deze units konden dus of aan of uit staan. Elke unit was
verbonden met andere units via inhiberende of excitatorische connecties. Op die manier konden
units elkaar in positieve of negatieve zin beïnvloeden. Deze architectuur gaf het netwerk de
mogelijkheid verschillende logische problemen op te lossen (Bechtel & Abrahamsen, 1991, p. 3). Een
netwerk dat bijvoorbeeld de logische conjunctie kan implementeren bestaat uit 2 input units die
enkel wanneer ze beiden actief zijn een output unit activeren.
53 | P a g e
John von Neuman, dezelfde man die de eerste computer construeerde, bouwde verder op McCulloch
en Pitts en ging uit van grotere hoeveelheden units. Eén unit zou dan input ontvangen van heel veel
andere units. Of deze unit actief zal worden hangt af van het statistische patroon dat haar
inputvector vertoont (Bechtel & Abrahamsen, 1991, p. 3). De ruis die kan optreden en de grote
hoeveelheid inputpatronen die tot eenzelfde output kunnen leiden zijn erg belangrijk. De grootste
troef van neurale netwerken lag namelijk in het verklaren van patroonherkenning. Mensen en dieren
herkennen eenzelfde object onder verschillende hoeken, van op verschillende afstanden, bij
verschillende verlichting, enzovoort. Door redundantie in te bouwen in de neurale netwerken van
McCulloch en Pitts wou von Neuman dit fenomeen trachten te verklaren. De grote hoeveelheid units
gaf bovendien de mogelijkheid tot gedistribueerde representaties. Dat wil zeggen dat informatie
verspreid wordt over het gehele netwerk, wat het geheel meer bestendig maakte tegen schade. Deze
benadering lijkt dan ook veel meer gelijkenissen te vertonen met de realiteit. Onze hersencellen
sterven in grote hoeveelheden af. Welke cellen verloren gaan is volledig willekeurig. Als
herinneringen lokaal zouden zijn, dan zouden we door een avond stevig drinken allerlei belangrijke
dingen
kunnen
vergeten.
Een
gedistribueerde
representatie
zorgt
ervoor
dat
het
herinneringspatroon blijft bestaan, ook wanneer bepaalde stukjes ervan verloren zijn gegaan. De
hypothese van Wilder Penfield (infra), dat ons geheugen lokaal en feilloos opslaat, is dus niet echt
plausibel. Een andere onderzoeker, Karl Lashley, voerde in de eerste helft van de 20 ste eeuw enkele
interessante experimenten uit met ratten. Eerst leerde hij de beestjes hun weg te vinden in een
doolhof. Vervolgens sneed hij een stukje cortex weg dat varieerde in grote. Hij ontdekte dat de
hoeveelheid vergeten informatie correleerde met de hoeveelheid weggesneden cortex. Opmerkelijk
genoeg vond hij geen correlatie tussen de locatie van de weggesneden cortex en de vergeten
informatie. Dit voedde zijn hypothese dat herinneringen gedistribueerd zijn over de gehele cortex en
dat verschillende hersenmodulen dus elk hun stukje bijdragen tot het opslaan van informatie (Neath,
1998, p. 195). Later onderzoek heeft deze hypothese in grote lijnen bevestigd.
De redenering van von Neumann werd vedergezet door Frank Rosenblatt. De belangrijkste stap die
hij zette was het invoeren van veranderlijke graduele gewichten van connecties (Bechtel &
Abrahamsen, 1991, p. 4). Het gewicht van een connectie is een waarde die de kracht weergeeft
waarmee activatie door die connectie propageert. Een inhiberende connectie heeft een negatief
gewicht, een excitatorische heeft een positief gewicht (McLeod, Plunkett, & Rolls, 1998). Rosenblatt
noemde zijn netwerk een perceptron. Hij werkte dit concept uit in zijn On the convergence of
reinforcement procedures in simple perceptrons in 1960. Het perceptron bestaat uit sensorische
units, verbonden met associatieunits, op hun beurt verbonden met responsunits. De eerste
54 | P a g e
connecties zijn onveranderlijk, maar de gewichten van de verbindingen tussen associatie- en
responsunits worden veranderd onder invloed van een reinforcement control system, een leraar
buiten het systeem dat de gewichten aanpast aan de hand van de afwijking van de correcte respons
(Rosenblatt, 1960). Rosenblatt introduceerde als eerste een geheugen binnen neurale netwerken.
Het geheugen bestaat uit de gewichten van de connecties in het netwerk. Het perceptron werd
ongeveer gelijktijdig ontwikkeld met het principe van Donald Hebb (supra). Dat suggereert een
neuronaal plausibele manier om het artificiële netwerk te laten leren.
Rosenblatt vestigde ook op zijn beurt de aandacht op het statistische karakter van deze netwerken
en op het belang van redundantie en ruis. Hij contrasteerde dit expliciet met het logische karakter
van andere informatie verwerkende systemen en stelde dat de statistische benadering veel beter
geschikt is om menselijke cognitieve processen te simuleren. (Bechtel & Abrahamsen, 1991, p. 6)
Ondanks dit onderzoek geraakte het connectionistisch onderzoeksprogramma in verval tijdens de
jaren 60 en 70. Dit was mede dankzij een boek, in 1969 gepubliceerd door Marvin Minsky en
Seymour Papert, nl. Perceptrons (Bechtel & Abrahamsen, 1991, p. 15). Het is een kritische studie van
neurale netwerken, uitgevoerd door twee aanhangers van de symbolische modellen. Ze toonden met
behulp van de wiskunde aan hoe er verschillende computationele processen waren die niet
uitgevoerd konden worden door deze neurale netwerken. Een eenvoudig voorbeeld is de exclusieve
disjunctie, XOR, waarbij de outputunit enkel actief mag zijn wanneer één van de twee inputunits
actief is, maar niet wanneer beiden actief zijn. Dit probleem kan wel uitgevoerd worden door een
meerlaging netwerk, waarbij zich extra hidden units bevinden tussen de input- en de outputlaag. Het
probleem is echter dat er geen trainingsprocedure bestond om zulke meerlagige netwerken te laten
leren. Het is bovendien al een stuk minder plausibel dat neuronen die niet met elkaar verbonden zijn
invloed kunnen uitoefenen op elkaars connecties. Een tweede punt van kritiek was dat het
connectionisme niet meer was dan een mooi ingeklede voortzetting van het associationisme (Bechtel
& Abrahamsen, 1991, p. 16). Wat zo’n leerprocedure doet is niet meer dan het gradueel aan elkaar
koppelen van een patroon dat een externe stimulus representeert en een patroon dat een bepaald
gedrag representeert. Het is niet meer dan de neuronale legitimering van het behaviorisme. De
cognitieve wetenschappers redeneerden dat associatie bijlange niet volstond om onze complexe
cognitieve capaciteiten te beschrijven. Er was computationele kracht nodig met duidelijke regels die
de berekeningen in goede banen leiden. Cognitie kon toch niet gewoon ontstaan uit een geheel van
chaotisch vurende neuronen in een netwerk?
55 | P a g e
c) De Connectionistische revolutie
Een duidelijk antwoord op de zo net besproken kritieken werd gegeven in 1986. Dat is het jaar
waarin James McClelland en David Rummelhart het tweedelige Parallel Distributed Processing:
Explorations in the microstructure of Cognition publiceerden. In Volume 1 worden de fundamenten
gelegd van het paradigma. Een nieuwe trainingsprocedure wordt geïntroduceerd, namelijk
backpropagation, waardoor nu ook meerlagige netwerken getraind kunnen worden op basis van de
afwijking van de correcte output. Het komt erop neer dat activatie voorwaarts gepropageerd wordt
door het netwerk terwijl de afwijking achterwaarts gepropageerd wordt. De mate waarin connecties
versterkt of verzwakt worden is een functie van die afwijking. Deze procedure werd eigenlijk al in
1974 beschreven door Paul Werbos, maar het was pas in dit boek dat haar volledige impact duidelijk
werd.
Laten we even een overzicht bieden van de voordelen die parallel gedistribueerde netwerken met
zich meebrengen, aan de hand van het boek Introduction to Connectionist Modellingof Cognitive
Processes van McLeod, Plunkett en Rolls. De meeste van deze voordelen zijn we al vroeger tegen
gekomen, maar het kan geen kwaad ze eens expliciet te vermelden.
De opslag van informatie is gedistribueerd en niet lokaal (McLeod, Plunkett, & Rolls, 1998, p. 31).
Ongeveer alle andere opslagsystemen waarmee we bekend zijn zijn lokaal. Een bepaald brokje
informatie komt dan overeen met één bepaalde locatie, zoals bijvoorbeeld in een telefoonboek. Ook
in een computer is dit het geval, een bestand wordt opgeslagen op een bepaalde locatie. In deze
netwerken is het echter niet zo dat bij het ophalen van een brok informatie één bepaald unit of een
groepje units op een bepaalde locatie geactiveerd worden. Bij de ophaling van elk mogelijk item zien
we actieve units verspreid over het hele netwerk, en dezelfde units spelen dus een rol in het ophalen
van verschillende informatie. De representatie in ons hoofd van bijvoorbeeld het concept ‘hond’ zal
dus niet overeenkomen met een verzameling naburige units maar wel met een verspreid patroon
van activatie (McLeod, Plunkett, & Rolls, 1998, p. 31). Deze gedistribueerde opslag heeft enkele
gevolgen. Schade aan een bepaalde locatie is niet rampzalig voor de werking van het netwerk.
Wanneer bij een computer de toegang tot een bepaalde locatie beschadigd is beschikt het systeem
gewoon niet meer over de informatie die op die locatie opgeslagen is. In een gedistribueerd patroon
heeft één unit slechts een beperkte invloed op het geheel, en zal de informatie die overeenkomt met
het (beschadigde) patroon nog min of meer volledig opgehaald kunnen worden. Dus, in een lokaal
systeem gaat een beetje informatie compleet verloren, terwijl in een gedistribueerd systeem
verschillende brokken informatie slechts gedeeltelijk verloren gaan. Dit fenomeen, het feit dat lokale
56 | P a g e
schade slechts een kleine invloed uitoefent op de performantie van het geheel, noemen we gracefull
degradation (McLeod, Plunkett, & Rolls, 1998, p. 34). Dit is ongetwijfeld ook een eigenschap van onze
hersenen. Tijdens ons leven sterven er voortdurend neuronen af en dat op een compleet
willekeurige manier. Maar, zoals deze gedistribueerde netwerken, slagen ook wij erin de meeste
informatie min of meer te behouden, en als we ze vergeten gebeurt dat eerder gradueel en
‘gracefull’.
Nog een reden waarom het wegnemen van één unit niet veel invloed zal hebben op de werking van
het geheel is dat één unit op zich nooit een bepalende rol speelt. Het is het statistisch patroon over
vele units dat het uiteindelijke gedrag bepaalt (McLeod, Plunkett, & Rolls, 1998, pp. 31-32). Ook dat
is makkelijk waarneembaar in de hersenen. Eén neuron kan op verschillende manieren reageren op
eenzelfde stimulus, afhankelijk van toevallige ruis in het netwerk. Maar het statistisch patroon van
duizenden neuronen die met eenzelfde stimulus geconfronteerd worden is wel betrouwbaar.
Bovendien maakt deze redundantie (hoewel dat woord in strikte zin fout gekozen is) het geheel nog
meer bestendig tegen schade en het kan verklaren waarom we zo goed zijn in het herkennen van
patronen. Zoals reeds vermeld werd, blinkt de mens uit in het herkennen van gezichten en objecten
vanuit alle mogelijke hoeken, van op verschillende afstanden en bij verschillende lichtintensiteiten.
Hoewel het beeld dat op het netvlies valt in elk van deze mogelijke gevallen verschillend is, wordt
toch steeds dezelfde representatie geactiveerd. Ook dit kan verklaard worden via de architectuur van
de netwerken waaruit onze hersenen bestaan. Elke keer dat we een hond waarnemen worden er
gewichten van connecties aangepast. Het patroon dat overeenkomt met ‘hond’ is dus het resultaat
van het zien van duizenden honden. Het komt overeen met wat we het prototype van een hond
zouden kunnen noemen. Wanneer we nu een speciale hond zien of een hond in het donker of van op
afstand, zal slechts een deel van het prototypische patroon actief worden via de zintuigen. De interne
associaties tussen de units die samen het patroon vormen, zorgen echter voor een productie van het
hele patroon, zodat ook in deze gevallen onze prototypische representatie van ‘hond’ actief wordt
(McClelland & Rumelhart, 1986, p. 82).
Een derde eigenschap van deze netwerken is dat ze inhoudsadresseerbaar zijn (McLeod, Plunkett, &
Rolls, 1998, p. 34). Dit was ook al volgens Atkinson en Shiffrin duidelijke eigen aan het menselijk
geheugen. Zij wrongen zich echter in allerlei bochten om deze eigenschap toe te voegen aan hun
model. Om het model inhoudsadresseerbaar te maken moesten ze de werking van het geheugen, de
structurele componenten en controleprocessen nog ingewikkelder maken. Allerlei additionele
informatie over de locatie van de opgeslagen informatie, de context waarin ze opgeslagen werd en
de inhoudelijke link met andere informatie moest samen met die informatie opgeslagen worden
57 | P a g e
opdat ze achteraf opgehaald zou kunnen worden via inhoudelijke cues. Het maakte het hele model
veel complexer. Bij connectionistische netwerken is het echter zo dat inhoudsadresseerbaarheid een
gevolg is van hun eenvoudige structuur. Een cue zal een bepaald patroon activeren dat overeenkomt
met deze cue. De actieve units sturen hun activatie vervolgens via hun connecties door naar andere
units. Afhankelijk van de sterkte van exciterende en inhiberende connecties en van de daaruit
volgende activatie of inhibitie van units kan uiteindelijk een stabiel activatiepatroon ontstaan, dat
overeenkomt met de informatie die opgehaald moest worden. Het geheel werkt dus heel associatief.
Wanneer je bijvoorbeeld het woord ‘zon’ aanbiedt kan dat leiden tot de activatie van ‘maan’ en dan
van ‘nacht’, enzovoort. Elk actief unit maakt de units waarmee het een positieve connectie heeft
actief en die waarmee het een negatieve connectie heeft inactief. Over het geheel genomen zullen
bepaalde units deze ‘competitie’ winnen en wanneer een bepaalde drempelwaarde overschreden
wordt kunnen we van een output spreken.
Een verder opmerkelijk gevolg van de architectuur van connectionistische netwerken is het
verdwijnen
van
het
onderscheid
tussen
verwerking
en
geheugen.
Andere
informatieverwerkingssystemen zoals de computer en oudere geheugenmodellen maakten steeds
dit onderscheid. Er is een stabiele, passieve opslagruimte van informatie en deze informatie wordt
elders gebruikt bij actieve verwerking. In deze netwerken steunen zowel het geheugen als de
verwerking op dezelfde gewichten tussen units. (McLeod, Plunkett, & Rolls, 1998, p. 48)
In volume 2 van hun bekende boek werken McClleland en Rumelhart modellen uit volgens de
theoretische lijnen die in volume 1 uiteengezet werden. Ze toonden zo aan hoe de belangrijkste en
meest complexe cognitieve vaardigheden van de mens wel uitgevoerd kunnen worden door niet
meer dan een netwerk van eenvoudige units met gradueel veranderende connecties. In hoofdstuk 17
behandelen ze het geheugen. Ze stellen in navolging van Hinton (1981) een model op dat hun
voorbeeld van de hond (supra) implementeert. De architectuur van het model ziet er als volgt uit:
grote hoeveelheden van units vormen samen een module. Er zijn verschillende modules die met
elkaar communiceren. Binnen één module zijn alle units met elkaar verbonden via modificeerbare
connecties. De gewichten van de verbindingen tussen de verschillende modules worden constant
gehouden. Elk unit krijgt 2 inputs, de externe input, afkomstig van buiten de module, en een interne
input van de andere units binnen de module. De eerste is dus constant, de tweede variabel. De totale
input is de som van deze twee inputs en de uiteindelijke activatie van de unit is een functie van deze
totale input. Nu we de architectuur kennen, kunnen we ons met het leren van het netwerk bezig
houden. Dit gebeurt volgens de deltaregel. Een patroon kan slechts volledig op zichzelf staan
wanneer de interne input alleen voldoende is om het te produceren. We willen er dus voor zorgen
58 | P a g e
dat de interne input voor elke unit even groot wordt als de externe input. Dit doen we door de
gewichten tussen de units van één module aan te passen. Het verschil van de interne en externe
input noemen we δ. Deze δ bepaalt de mate waarin de gewichten naar de desbetreffende unit
worden aangepast, samen met de activatie van de inputunit en een leerparameter die vrij gekozen
kan worden. Het herhaaldelijk uitvoeren van deze leerregel zorgt voor een aanpassing van gewichten
tot ze de waarde bereikt hebben waarbij δ gelijk is aan 0. Om nu terug te komen op het voorbeeld
van de honden. Het zien van een hond komt overeen met het aandienen van een externe input. Dat
inputpatroon zal verschillend zijn voor verschillende honden, maar er zullen desalniettemin veel
gelijkenissen zijn. De patronen van een rottweiler en een buldog vertonen meer gelijkenissen dan de
patronen van een rottweiler en koffiezetapparaat. Door het aanbieden van de visuele representaties
van de vele honden en het uitvoeren van de deltaregel bij elke trial zullen de gewichten naar
bepaalde gemiddelde waarden toegroeien. Deze waarden zijn niet gelijk aan 0, gezien de
gelijkenissen van de inputpatronen. Wat dus gradueel ontstaat in de connecties van het netwerk is
een representatie van de prototypische hond, ook al hebben we die nooit aangeboden. Elke
aangeboden instantie is een distortie van dat prototype. Nu zien we duidelijk hoe patroonherkenning
een simpel gevolg is van de architectuur van het netwerk en de leerregel. (McClelland & Rumelhart,
1986)
Een nog opmerkelijker resultaat is dat in eenzelfde netwerk verschillende prototypes opgeslagen
kunnen worden. Het netwerk slaagt er dus in om categorieën aan te maken. Dat gebeurt niet enkel
wanneer elk patroon een label krijgt met de categorienaam, maar ook wanneer dat label ontbreekt.
Het netwerk categoriseert dus volledig op zichzelf. Dit werd getest door het model drie soorten
patronen aan te bieden. Random distorties van honden, katten en bagels. De patronen van bagels
hebben geen enkele gelijkenis met die van honden en katten, maar die laatste twee overlappen wel
voor een deel. Toch zien we dat na voldoende trials en dus na voldoende aanpassingen aan de
gewichten, het netwerk drie categorieën geleerd heeft. Een patroon dat het midden houdt tussen kat
en hond geeft als output een soortgelijke mix van de twee, zoals we dat ook bij de mens zouden
verwachten (McClelland & Rumelhart, 1986). Het netwerk kan echter veel meer dan het extraheren
van prototypes. En dat moet ook, willen we het menselijk geheugen modeleren. Wij mensen leren
inderdaad door uit vele concrete ervaringen abstracties te vormen die ons helpen bij onze
toekomstige ervaringen. We vormen categorieën of prototypes en delen de wereld vervolgens in op
basis daarvan. Daarnaast slagen we echter ook in het onthouden van heel specifieke, concrete
dingen of gebeurtenissen. Wanneer we onze hond zien dan denken we niet alleen ‘dit is een hond’
maar we herkennen hem als deze specifieke hond. Ook dit konden de netwerken van McClelland en
59 | P a g e
Rumelhart. Het netwerk kon tegelijkertijd een prototype extraheren uit vele instanties en
verschillende van die instanties op zich opslaan. Dat laatste hangt uiteraard af van het aantal keer dat
we het netwerk met die instanties confronteren. Hoe meer een bepaald patroon aangeboden wordt,
hoe groter haar invloed op de gewichten van de connecties zal zijn (McClelland & Rumelhart, 1986).
Deze gedistribueerde netwerken vormen, naar onze mening, het mooiste en meest elegante
antwoord op de vraag die aan het begin van deze masterpaper werd geformuleerd. De vraag was hoe
de temporele afstand overbrugd wordt. Hoe kan een gebeurtenis invloed uitoefenen op
gebeurtenissen die er temporeel van gescheiden zijn. Welk deel van een ervaring blijft aanwezig
tussen de twee gebeurtenissen? Het antwoord is geen enkel. Wat gebeurt is een initiële interactie
tussen de wereld en ons brein. De zintuigen dienen een patroon aan, de connecties van dat patroon
worden versterkt. Deze versterkingen vinden voortdurend plaats in de chaotische materie van onze
hersenen. De tweede gebeurtenis, die volgens ons conceptueel denkkader veroorzaakt wordt door
de eerste is niet meer dan het stellen van een handeling als gevolg van een geactiveerd patroon. Het
tweede patroon heeft ongetwijfeld veel leden gemeenschappelijk met het patroon dat in de eerste
ervaring actief was en versterkt werd, maar het is niet zo dat er één entiteit is die de eerste keer
geconstrueerd en de tweede keer opgehaald werd. Beide patronen zijn het gevolg van een
constructieproces dat afhangt van aanwezige activatie en kracht van connecties. De eerste ervaring
zorgt er gewoon voor dat de neiging van ons netwerk groter wordt om tijdens de tweede ervaring
hetzelfde patroon te produceren.
David Stern ziet het connectionisme wel als een antwoord op Descartes’ dualisme in tegenstelling tot
Fodor’s computationele niveau (Stern, 1991). Die laatste gaat uit van een taal van het denken en
gelooft dat alle woorden en zinnen van die taal corresponderen met iets in de werkelijkheid. Stern
wil met die representaties komaf maken. Hij benadrukt dat niet een lokaal neuron of groepje
neuronen reageert op een bepaalde stimulus, maar dat het gehele netwerk van belang is. Stern
citeert Ludwig Wittgenstein, die deze kritiek op het cognitivisme reeds geformuleerd had:
“Nothing seems more possible to me than that people some day will come to the definite opinion that
there is no copy in either the physiological or nervous systems which corresponds to a particular thought,
or a particular idea, or memory.” (Wittgenstein, zoals geciteerd in Stern, 1991)
Het connectionisme toont hoe we tot menselijke intelligentie kunnen komen zonder een taal van het
denken. Het interpreteert herinneren niet als iets wat we “passief ondergaan” maar als “something
we do, an activity” (Stern, 1991). Het helpt ons af van de homunculus die naar een scherm met
herinneringen kijkt en analyseert, vergelijkt en selecteert. Herkennen en herinneren zijn emergente
60 | P a g e
eigenschappen van door het netwerk propagerende activatie, niet het gevolg van het ‘opslaan’ van
een representatie. Er is geen homunculus meer, er is enkel het ‘army of idiots’ (Dennett, 1991),
waarin elke soldaat zijn simpel taakje volbrengt. Het geheel geeft echter aanleiding tot
indrukwekkende fenomenen die sinds jaar en dag tot de grootste raadsels van de filosofie behoren.
61 | P a g e
IV.
Een connectionistisch model: Tracelink
Zoals al verschillende malen aangehaald werd, is één van de belangrijkste troeven van
connectionistische
modellen
hun
realistische
architectuur.
Onze
hersenen
lijken
een
ongestructureerd netwerk van neuronen, net als de connectionistische netwerkmodellen. Die laatste
tonen echter dat uit die schijnbare chaos orde kan emergeren. Voor we dus een interessant
connectionistisch netwerk kunnen bespreken, is het noodzakelijk dat we wat dieper ingaan op de
ware biologie van het brein.
1) Amnesie en de biologie van het brein
Een belangrijke methode binnen de neurologische wetenschappen is het bestuderen van mensen
met een hersenletsel. Wanneer we willen weten waarvoor een bepaald hersengebied dient is het
interessant te kijken naar de mensen met schade aan dat hersengebied. Het is deze inferentie die
Broca er reeds in de 19de eeuw toe aanzette te postuleren dat een bepaald gebied in de
linkerhersenhelft instond voor de spraak. Als we nu een psychologisch fenomeen bestuderen, zoals
het geheugen, is het interessant te kijken naar mensen met geheugenproblemen. Er bestaan
verschillende soorten van geheugenverlies of amnesie. Sommige patiënten kunnen zich oude
gebeurtenissen niet herinneren, anderen slagen er niet in nieuwe herinneringen te construeren.
Afhankelijk van het feit of de amnesie betrekking heeft op gebeurtenissen voor of na het moment
waarop de amnesie ontstond, spreken we respectievelijk van retrograde en anterograde amnesie.
Verscheidene opvallende casestudies suggereren dat ons geheugen op te delen is in verschillende
subsystemen. De meest bekende casestudie is die van H.M. Dit was een patiënt die in 1953
geopereerd werd voor chronische epileptische aanvallen. We gebruiken Banich (2004) om deze case
te bespreken. Tijdens de operatie werd een groot stuk van zijn temporele kwab weggehaald, met
name de hippocampus en de omringende structuren. De operatie was een succes, maar had een
opmerkelijk neveneffect. Ze leverde H.M. een enorm geheugendeficiet op. Hij was niet in staat om
nieuwe herinneringen op te doen. En tot bij zijn dood in 2008 had hij geen enkele notie van wat hem
overkomen was sinds de operatie. Hij wist niet hoe oud hij was, hij ontmoette dezelfde mensen elke
dag opnieuw, alsof het de eerste keer was en hij verwarde een foto van zichzelf met een van zijn
vader. Toch bleven andere capaciteiten die we met het geheugen associëren intact. Zo was het
62 | P a g e
mogelijk een relatief normaal gesprek te voeren met H.M. zo lang het van voldoende korte duur was.
De informatie bleef duidelijk nog even in zijn hoofd sluimeren alvorens ze verloren ging. Hij
presteerde bovendien normaal voor alle taken die onmiddellijk uitgevoerd konden worden. Maar
vanaf het moment dat ergens een pauze ingelast werd of een taak om één of andere reden
onderbroken werd, was het enkele seconden later alsof hij het nooit meegemaakt had. Een andere
opmerkelijke capaciteit die behouden bleef was het leren van vaardigheden. H.M. vertoonde een
duidelijk verbetering in het leren van vaardigheden, zoals bijvoorbeeld in spiegelschrift schrijven.
Hoewel hij steeds opnieuw dacht dat het de eerste keer in zijn leven was dat hij deze taak uitvoerde,
leerde hij even rap als normale mensen. (Banich, 2004, pp. 323-324)
Volgens Neath (1998, p. 198) wordt de studie van H.M. gewoonlijk gebruikt om vier hypothesen te
ondersteunen.
Ten
eerste
bevestigt
ze
het
onderscheid
tussen
het
korte-
en
het
langetermijngeheugen. H.M. kon namelijk relevante informatie voor even in zijn geheugen houden.
Zijn werkgeheugen was als het ware intact. Dit pleitte dus voor anatomisch gescheiden gebieden,
één dat de functies bezit van Baddeley’s werkgeheugen en een ander dat informatie gedurende
lange tijd kon opslaan. De tweede hypothese die deze casestudie ondersteunt is een onderscheid
tussen declaratief en proceduraal geheugen. Het declaratieve geheugen bestaat uit kennis over de
wereld, het semantisch geheugen, en uit de herinneringen van de dingen die we meegemaakt
hebben, het episodisch geheugen. Het proceduraal geheugen staat in voor het onthouden van
vaardigheden. Het oproepen van deze ‘herinneringen’ is iets dat eerder onbewust gebeurt.
Voorbeelden zijn fietsen, skiën, typen, enzovoort. De hypothese dat ook deze twee geheugens
uitgevoerd worden door verschillende anatomtische systemen volgt uit het feit dat H.M. er wel nog
in slaagde vaardigheden aan te leren, zonder zich daarbij bewust te zijn van de leerepisodes. Deze
63 | P a g e
architectuur
van
Menselijk
geheugen
het
geheugen
wordt
Declaratief
geheugen
Proceduraal
geheugen
duidelijk
weergegeven
in
figuur
3.
Episodisch
geheugen
Semantisch
geheugen
Figuur 3: De structuur van het menselijk geheugen
Ten derde bevestigt H.M.’s letsel de onmisbare rol van de hippocampus in het geheugen. Schade aan
de hippocampus leidt altijd tot geheugenverlies en dus speelt de hippocampus een rol in het opslaan
van informatie. Neath beweert echter dat het zo simpel niet is. Tijdens H.M.’s operatie werd niet
enkel de hippocampus maar ook een groot deel van de omringende structuren verwijderd.
Bovendien kan het zijn dat niet de structuren die instaan voor het geheugen zelf, maar de verbinding
tussen die structuren werd beschadigd. Dit slechts om aan te tonen dat de lokalisatie van
psychologische functies niet zo eenvoudig is als de eerste paragraaf van dit onderdeel doet
vermoeden. Vele jaren van hersenonderzoek hebben ondertussen echter onmiskenbaar aangetoond
dat de hippocampus een erg belangrijke rol speelt voor het geheugen. Larry Squire is één van de
onderzoekers die zich hiermee bezig houdt. In een paper uit 1992 verenigde hij onderzoek bij ratten,
apen en mensen om bovenstaande stelling aan te tonen (Squire, 1992). Bij deze drie soorten is het
steeds het geval dat het weghalen van enkel de hippocampus en niets anders voldoende is om voor
geheugenverlies te zorgen. Een voorbeeld van een menselijke patiënt is R.B.. Deze man leed aan
ischemia, een aandoening die ervoor zorgt dat er niet genoeg bloedtoevoer is naar de hersenen en
die vooral de hippocampus treft. Schade aan de hippocampus is dus voldoende, maar H.M., bij wie
ook andere temporele gebieden beschadigd waren, leed aan een ergere vorm van amnesie. Dit
suggereert dat ook de gebieden die de hippocampus omringen bijdragen tot de werking van het
geheugen (Squire, 1992, p. 196). Onderzoek bij ratten en primaten bevestigt deze stelling. Een
volgende stelling van Squire, is dat de hippocampus slechts een rol speelt voor een deel van het
geheugen. Hij impliceert met andere woorden dat het geheugen uit meerdere componenten bestaat,
64 | P a g e
niet alleen functioneel maar ook anatomisch. De verschillende componenten, waarvoor verschillende
termen bestaan, zijn niet altijd duidelijk van elkaar te onderscheiden, maar volgens Squire duidt de
distinctie declaratief-proceduraal wel degelijk op een biologische distinctie, waarbij de hippocampus
enkel een rol speelt voor het declaratief geheugen (Squire, 1992, p. 204). Zoals we gezien hebben
wordt dit bevestigd door H.M. en andere amnesiepatiënten. Ze slagen er namelijk wel in om
vaardigheden aan te leren met beschadigde hippocampus, terwijl hun geheugen voor feiten en
gebeurtenissen verloren is gegaan. Het declaratief geheugen lijkt iets dat op het eerste zicht niet
getest kan worden bij ratten en primaten, aangezien zij niets kunnen declareren. Dit geheugen bevat
echter informatie over plaatsen, gezichten en gebeurtenissen. We kunnen ratten testen, zoals
Lashley dat deed, door ze de weg door een doolhof aan te leren en vervolgens de hippocampus te
beschadigen. Zulke studies bevestigen opnieuw Squire’s stelling dat de hippocampus enkel een rol
speelt voor het declaratief geheugen en niet voor het proceduraal (Squire, 1992, pp. 207-208).
Nu rest de vraag nog, wat is juist de functie van de hippocampus binnen het declaratief geheugen.
Het is een vraag waar Squire erg veel mee bezig is geweest. Onderzoek bij patiënten met retrograde
amnesie heeft tot enkele interessante bevindingen geleid. Theodule Ribot onderzocht het geheugen
van een groep amnesiepatiënten reeds in 1881. Hij constateerde dat recent geheugen vlugger en in
grotere mate verloren gaat dan het geheugen aan ver vervlogen tijden. Hij goot deze vaststelling in
een wet. De Ribot-gradiënt wordt gedemonstreerd in figuur 4. Squire confirmeerde deze wet bij
verschillende groepen patiënten met verschillende vormen van amnesie. Bij personen met schade
aan de hippocampus en de gerelateerde gebieden is een duidelijke temporele gradiënt waar te
nemen. Het percentage recente herinneringen dat onthouden wordt is erg klein terwijl men het voor
oude herinnering ongeveer even goed doet als de controlegroep van normale testsubjecten (Squire,
1992, p. 215). Een interessante groep patiënten zijn deze met transient globale amnesie (TGA). Dit is
een aandoening waarbij men gedurende een zeer korte tijd, enkele uren, aan zware amnesie leidt.
Het voordeel van deze tijdelijkheid is dat TGA-patiënten als hun eigen controlegroep kunnen
fungeren. Ze worden getest tijdens en na de amnesie. Ook in deze resultaten is een duidelijke
temporele gradiënt waarneembaar (Squire, 1992, p. 217). Bovendien is het zo dat het herstel van
tijdelijke amnesie ook in een temporele richting verloopt. Oudere herinneringen komen terug voor
recentere herinneringen.
65 | P a g e
De Ribot-gradiënt
70
Percentage onthouden
60
50
40
30
20
10
0
0
1
2
3
4
5
6
7
8
Tijd geleden
Figuur 4: De precieze waarden zijn fictief, maar de vorm van de curve komt kwalitatief overeen met wat typisch in de
literatuur beschreven wordt, bv. (Neath, 1998). De dunne lijn toont de normale vergeetcurve, de dikkere lijn toont wat er
gebeurt bij een beschadigde hippocampus. De horizontale as respresenteert de ouderdom van de herinneringen, waarbij
0 het heden is. Oudere herinneringen worden duidelijk beter bewaard dan meer recente.
Squire stelt vervolgens een verband vast tussen anterograde en retrograde amnesie met temporele
gradiënt. In de meeste gevallen zijn de twee gecorreleerd. Bovendien is de ernst van beide soorten
amnesie gecorreleerd met de hoeveelheid schade. De patiënt R.B., met schade aan een stukje van de
hippocampus (CA1), ondervond minder anterograde en retrograde amnesie dan de patiënten met
meer uitgebreide hippocampale schade (Squire, 1992, p. 217).
Er bestaan echter ook gevallen van retrograde amnesie waarbij geen sprake is van een temporele
gradiënt en waarbij alle herinneringen dus in gelijke (of in willekeurige) mate getroffen worden. Dit
zien we bij aandoeningen als Alzheimer en Huntington. In deze gevallen is ook soms de correlatie
met anterograde amnesie verdwenen. De populairste hypothese is dat bij deze patiënten additionele
schade aanwezig is in gebieden buiten de laterale temporele cortex. Deze gebieden zouden dan
overeen komen met de substraten van oudere herinneringen. (Squire, 1992, p. 219)
We kunnen dus samenvattend stellen dat de meeste gevallen van retrograde amnesie, vooral bij
schade aan de hippocampale formatie, een temporele gradiënt bezitten, dat deze temporeel
gegradeerde retrograde amnesie vergezeld is van een in ernst gecorreleerde anterograde amnesie en
dat de ernst van beide afhangt van de hoeveelheid schade aan de temporele lob. Additionele schade
aan andere gebieden verdrijft deze correlaties.
66 | P a g e
Het laatste experiment van Squire dat we zullen bespreken is het volgende. Om uit te maken of
schade aan de hippocampus leidde tot een opslag- of een ophalingsprobleem gaf hij de testsubjecten
verschillende mogelijkheden om bepaalde herinneringen op te halen. Er waren verschillende sessies
en ze kregen verschillende cues. Zowel de amnesiepatiënten als de controlegroep herinnerden zich
meer met elke ophalingsgelegenheid die ze kregen. Maar er bleef een duidelijk verschil in de
hoeveelheid informatie die herinnerd werd bij beide groepen. Dit wijst er duidelijk op dat de
amnesiepatiënten de relevante kennis verloren hebben en dat ze niet louter een ophalingsprobleem
hebben (Squire, 1992, p. 220).
Al deze gegevens leidden Squire tot volgende hypothese. De temporele gradiënt wijst op een
variabele rol van de hippocampale formatie voor het geheugen. Bij schade aan die formatie worden
sommige herinneringen immers wel onthouden en andere niet. In de ophaling van herinneringen die
slecht onthouden worden, de recente, speelt de hippocampus dus een grotere rol dan in de ophaling
van oude herinneringen. Met andere woorden, de rol van de hippocampus in het activeren van een
bepaalde herinnering vermindert met de tijd. Het laatste experiment dat we besproken hebben wijst
erop dat de taak van de hippocampus niet beperkt is tot de ophaling van herinneringen. Het komt
erop neer dat sommige geheugenpatronen (de recentere) niet meer geactiveerd worden bij schade
aan de hippocampus en dat de corresponderende herinnering dus niet meer aanwezig is. We kunnen
stellen dat de hippocampus een patroon creëert, dat overeenkomt met de opslag van een
herinnering, en dat patroon vervolgens in stand houdt tot het genoeg zelfstandigheid heeft om
autonoom geactiveerd te kunnen worden indien nodig. In neurologische termen komt dat neer op
het volgende. De gebieden van de neocortex die instaan voor een bepaalde waarneming worden aan
elkaar gekoppeld via de plastische neuronen van de hippocampus. Zo vormt zich een
geheugenpatroon. In het begin zorgt de hippocampus voor de activatie van dat patroon, maar
aangezien de neuronen van dit patroon samen vuren zullen zich, in overeenstemming met de Hebbregel, cortico-corticale connecties vormen, wat het patroon steeds onafhankelijker maakt van de
hippocampus, tot het volledig autonoom is. Dit gradueel proces noemen we consolidatie. Squire
drukte bovenstaande als volgt uit:
“The facts of retrograde amnesia, as they are now understood, require a gradual process of reorganization
or consolidation within declarative memory, whereby the contribution of the hippocampus and related
structures gradually diminishes and the neocortex alone gradually becomes capable of supporting usable,
permanent memory.” (Squire, 1992, p. 222)
67 | P a g e
2) Een voorbeeld van een connectionistisch model voor het geheugen
Hoe meer we te weten komen over de anatomie en fysiologie van het brein en hoe meer cognitieve
processen we volledig mechanisch kunnen verklaren, hoe beter onze modellen moeten zijn. Een
model moet niet enkel de resultaten van een veelheid aan psychologische experimenten kunnen
bevestigen, het moet ook in structuur min of meer overeenkomen met de hersenen. Een recent
connectionistisch model dat aan deze criteria voldoet is het Tracelink model. Het kan vele
eigenschappen van anterograde en retrograde amnesie verklaren, zoals de Ribot-gradiënt, het kent
een anatomisch plausibele samenstelling, het vertoont een normale vergeetcurve en het kan
verklaren hoe we items permanent kunnen opslaan (Meeter & Murre, 2005).
We beschrijven dit model aan de hand van de paper ‘Tracelink: a model of consolidation and
amnesia’ van Martijn Meeter en Jaap M.J. Murre.
Er wordt uitgegaan van de consolidatie-hypothese van Squire. Een nieuwe herinnering bestaat uit
verschillende stukken informatie, visuele, auditieve, tactiele, enzovoort. Gezien de modulariteit van
het brein zal een ervaring dus gebieden verspreid over het brein actief maken. Neuronen die ver van
elkaar verwijderd zijn moeten dus, om samen een bepaalde herinnering te vormen, met elkaar
verbonden worden via langeafstand cortico-corticale connecties. Deze verbindingen vormen zich niet
onmiddellijk. Er wordt uitgegaan van een “hiërarchical connectivity structure with dense bidirectional
connections”. Deze structuur werkt zoals een telefoonnetwerk, dense lokale netwerken worden met
elkaar verbonden door regionetwerken die op hun beurt verbonden worden via nationale en
internationale netwerken (Meeter & Murre, 2005, p. 560). Het is de taak van de hippocampus om
deze gescheiden locaties met elkaar te verbinden. De hippocampus is een plastische structuur die
snel kan reageren op nieuwe stimuli. Linken tussen de verschillende gebieden die de herinnering
vormen en de hippocampus worden rap gelegd. Squire’s bevindingen wezen, zoals we gezien
hebben, op een kleiner wordende rol van die hippocampus. Er vindt consolidatie plaats, of er worden
verbindingen gevormd en versterkt tussen de relevante gebieden zelf. Dit consolidatieproces voltrekt
zich tijdens de slaap. Dit gaat door tot het patroon volledig onafhankelijk is van de hippocampus.
Het Tracelink model gaat uit van drie structurele componenten van het geheugen (Meeter & Murre,
2005, p. 561). Ten eerste is er een tracesysteem. Dit modelleert delen van de neocortex, waar de
eigenlijke herinneringen zijn opgeslagen. Dit tracesysteem is verbonden met een kleiner linksysteem.
Dit speelt de rol van de hippocampus. De units van dit systeem zijn verbonden met elkaar en met
68 | P a g e
willekeurige units in het tracesysteem. De derde component, het modulair systeem, speelt een erg
belangrijke rol. Het is schijnbaar paradoxaal dat ons geheugen bepaalde gebeurtenissen voor altijd
kan onthouden en tegelijk snel en efficiënt kan reageren op nieuwe gebeurtenissen. Er is dus tegelijk
een grote mate van plasticiteit en rigiditeit. Het modulair systeem brengt dit in rekening. Wanneer
het geactiveerd wordt vergroot het de plasticiteit van het linksysteem waardoor leren veel sneller
gebeurt. Een nadeel van die plasticiteit is echter dat voordien aanwezige patronen in het linksysteem
snel kunnen verdwijnen ten voordele van nieuwe patronen. Het tracesysteem kent een lage mate
van plasticiteit en deze wordt niet beïnvloed door het modulair systeem. Dit verklaart waarom
andere herinneringen relatief stabiel zijn. Het modulair systeem zou bij ons overeenkomen met de
amygdala, delen van de hippocampus en enkele andere gebieden. Toenemende plasticiteit kan
veroorzaakt worden door aandacht, opwinding, waakzaamheid, ... (Meeter & Murre, 2005, pp. 561562).
Wanneer we nu een bepaalde ervaring simuleren in het model, door een vast aantal willekeurige
units van het tracesysteem te activeren, zal er consolidatie optreden. Dat gebeurt als volgt. De
geactiveerde trace units zijn niet met elkaar verbonden maar wel met enkele willekeurige units van
het linksysteem. Het modulair systeem wordt actief en vergroot de plasticiteit van het link systeem,
waardoor de connecties tussen trace en link units snel sterker worden. Door herhaaldelijke activatie
van het patroon gaan zich (conform de Hebb-regel) cortico-corticale connecties vormen tussen de
actieve trace units. Het modulair systeem wordt minder actief, de rol van het link systeem verkleint.
Uiteindelijk is het patroon geconsolideerd. De connecties tussen link en trace systeem vervallen en
worden verlegd om te mediëren bij het vormen van nieuwe herinneringspatronen (Meeter & Murre,
2005, p. 563).
Het hierboven beschreven proces kan jaren duren. Dat verklaart ook waarom amnesie vaker recente
herinneringen treft dan oude herinneringen. Wanneer het consolidatieproces voor een bepaalde
herinnering nog niet volledig is voltrokken heeft schade aan de hippocampus het vergeten van een
deel van of de gehele herinnering tot gevolg. In het model simuleren we amnesie door het
gedeeltelijk beschadigen van het link systeem (Meeter & Murre, 2005, p. 571). De verschillende
simulaties hebben enkele interessante resultaten als gevolg. Allereerst vertoont het model een
normale vergeetcurve. In de leerfase wordt aan het model een patroon aangeboden, gevolgd door
drie consolidatietrials. Een patroon is de activatie van een vast aantal willekeurige trace en link units.
De sterkte van inhibitie voorkomt dat er te veel units actief zouden zijn. Aangezien patronen random
zijn is er steeds een mate van overlap tussen de verschillende patronen. Een consolidatietrial begint
met een willekeurig patroon. Vervolgens laat men het model circuleren gedurende een vast aantal
69 | P a g e
iteraties, en het patroon dat op het einde actief is wordt vervolgens geconsolideerd via een versie
van de Hebb-regel. Dat laatste toont aan hoe verschillende patronen in feite in een competitie
verwikkeld zijn. Het patroon dat erin slaagt actief te worden en de andere patronen te inhiberen,
wint deze competitie en wordt geconsolideerd. Na de verwerving van een nieuw patroon vinden dus
drie van deze trials plaats, gevolgd door het aanleren van een nieuw patroon, enzovoort. In deze
simulatie worden 15 patronen aangeleerd en volgt er een testfase. In deze fase test men de
verschillende patronen door een cue aan te bieden. Een deel van de units van het trace systeem die
deel uitmaken van een bepaald patroon, wordt geactiveerd. Het model wordt vervolgens vrij gelaten
voor een aantal iteraties. De mate waarin het model zich een bepaald patroon “herinnert”, wordt
gemeten door het aantal uiteindelijk actieve trace units dat deel is van het patroon, maar niet van de
cue, te delen door het totaal aantal trace units in het patroon, zonder deze die deel uitmaken van de
cue (Meeter & Murre, 2005, p. 568). Het resultaat van deze simulatie is de vergeetcurve van
Ebbinghaus (zie figuur 1). Oudere patronen gaan langzaam verloren naarmate nieuwe patronen
aangeleerd worden. Door de plasticiteit van het link systeem en de mate van overlap tussen de
patronen zullen bepaalde connecties zich verleggen, waardoor delen van nog niet volledig
geconsolideerde oudere patronen verloren gaan. De curve daalt wel nooit volledig tot nul, aangezien
oude patronen op een bepaald moment onafhankelijk worden van het link systeem (Meeter &
Murre, 2005, p. 571). Dat zorgt ervoor dat de performantie van het model voor dat patroon voortaan
constant blijft.
De simulatie van retrograde amnesie en van de Ribot-gradiënt loopt in grote lijnen gelijk met
voorgaande simulatie. De leerfase loopt helemaal gelijk, er worden 15 patronen aangeleerd. Voor de
testfase wordt echter een lesie aan de hippocampus gesimuleerd. Dat houdt in dat het link systeem
gedeactiveerd wordt terwijl het trace systeem vrij gelaten wordt. Vervolgens worden de patronen,
net als voordien, getest. De curve die deze simulatie oproept verschilt merkbaar van die van
Ebbinghaus. We zien over het algemeen slechte ophalingsresultaten, maar die verslechtering is veel
groter voor recente dan voor oudere patronen (Meeter & Murre, 2005, p. 571). De invloed van het
gedeactiveerde link systeem is dus veel groter voor nieuwere patronen. Er is een duidelijke Ribotgradiënt aanwezig (zie figuur 3). Deze resultaten zijn geheel conform Squire’s hypothese over de
gradueel kleiner wordende rol van de hippocampus.
Een vaak voorkomende vorm van amnesie is TGA ofte transient globale amnesie (Meeter & Murre,
2005, p. 572). Dit is een tijdelijke en plotse retrograde amnesie, waarna gradueel herstel optreedt.
De simulatie van deze aandoening verloopt als volgt. Na het aanleren van 14 patronen op de manier
die hierboven beschreven werd, wordt het aantal actieve units in het link systeem via inhibitie op nul
70 | P a g e
gebracht. Dat aantal is een parameter die k wordt genoemd. Het moment waarop k=0 simuleert het
eigenlijke trauma, de TGA-aanval. Vervolgens wordt het 15de patroon aangeboden. De testfase wordt
eerst uitgevoerd met k nog steeds gelijk aan 0. Om vervolgens het herstel te simuleren wordt de
testfase herhaald voor k gelijk aan 3 en 5. Uiteindelijk wordt k terug op haar normale waarde, 7,
gebracht en worden er nog 5 nieuwe patronen aangeleerd, gevolgd door een laatste testfase. Voor
k=0 krijgen we hetzelfde resultaat als bij de simulatie van normale retrograde amnesie. Dat zien we
in figuur 5, rechts boven. Deze curve is dezelfde als deze in figuur 3. Bij een k van 3 en 5 zien we de
performantie stijgen (figuur 4). Recente patronen worden beter opgehaald maar blijven nog steeds
relatief ver van hun normale niveau. Oude patronen worden ook voor een lage k al snel even goed
(of zelfs beter) dan voorheen opgehaald. Dat houdt in dat bij het herstel van TGA, oude
herinneringen sneller terugkomen dan recente, een fenomeen dat we ook bij werkelijke patiënten
waarnemen. Het resultaat van de simulatie van een volledig herstelde retrograde amnesie (k
opnieuw gelijk aan 7) vertoont een normale vergeetcurve (figuur 5), met een knik op de plaats van
het patroon dat aangeleerd werd tijdens de aanval. Dit patroon werd niet onthouden.
Wat Meeter en Murre in een latere simulatie ook in rekening brengen is de variabele invloed van het
modulair systeem (Meeter & Murre, 2005, p. 579). Ze doen dit door de leerparameter, die bepaalt
hoe snel iets aangleerd wordt, te laten variëren voor de verschillende patronen. Ook in de
werkelijkheid gebeurt dit. Sommige dingen worden beter onthouden, onafhankelijk van hun leeftijd,
omdat ze bijvoorbeeld speciaal zijn, of in een periode van hoge aandacht of emotionaliteit worden
aangeleerd. Die aandacht, waakzaamheid, opwinding activeert het modulair systeem, dat op zijn
beurt de leersnelheid aanpast. Zo kan je herinnering aan je eerste kus lang geleden beter zijn dan de
herinnering aan een ontbijt vorige week. De simulatie deelt de patronen in in drie groepen: sterke,
gemiddelde en zwakke patronen. Algemeen krijgen we een plattere leercurve. Dat was te
verwachten, aangezien zwakke recente patronen niet noodzakelijk beter onthouden worden dan
sterke oude patronen. Een opmerkelijk resultaat verkrijgen we bij een gedeactiveerd link systeem. Er
is een Ribot-gradiënt waarneembaar, net als voorheen, maar wanneer we de bijdragen van de 3
soorten patronen uitzetten op de grafiek zien we dat de sterke patronen bijna volledig
verantwoordelijk zijn voor deze gradiënt. Dat wil zeggen dat vooral sterke patronen geconsolideerd
worden, terwijl zwakke patronen even nagalmen en dan volgens de normale processen van verval en
de herlocalisatie van middelen verdwijnen.
71 | P a g e
Figuur 5: Simulatie van Transient Globale Amnesie. Figuur overgenomen uit originele paper (Meeter & Murre, 2005). Hoe
dichter k haar normale waarde nadert, hoe meer patronen opnieuw herinnerd worden. Oudere patronen komen sneller
terug dan meer recente. Het patroon dat aangeleerd werd tijdens de aanval (grijze band) blijft, ook na volledig herstel,
verloren.
72 | P a g e
V.
Conclusie
We hebben de geschiedenis van de wetenschap en de filosofie doorlopen. We zijn vertrokken bij
Plato’s Theaetetus om uiteindelijk aan te komen bij het Tracelink model in de 21 ste eeuw. Onderweg
zijn we heel wat theorieën tegengekomen. Enerzijds kunnen we zeggen dat we een stuk dichter zijn
gekomen bij de oplossing van één van de meest intrigerende raadsels van de menselijke geest.
Anderszijds valt op hoe vele vragen die reeds in de oudheid gesteld werden brandend actueel blijven,
al dan niet in een modernere formulering. Een thema dat we voortdurend ontmoet hebben is dat
van de lokalisatie van herinneringen. Worden herinneringen op een locatie opgeslagen of zijn ze
gedistribueerd? Het dominante paradigma van vandaag pleit voor de laatste optie, maar zoals we
gezien hebben is dit idee niet nieuw. In Descartes’ werk kunnen we reeds een anticipatie lezen van
het connectionisme, zij het in een iets speculatiever kleedje.
Een ander thema dat in deze paper voortdurend terugkwam is dat van wetenschappelijke
vooruitgang. Hoewel dezelfde vragen steeds opnieuw gesteld werden onder andere gedaantes, hoeft
dat niet tot relativisme te leiden. Naar mijn mening kunnen we van vooruitgang spreken. Zo heeft de
introductie van de wiskunde en van de experimentele methode binnen geheugenonderzoek ertoe
geleid dat speculaties omtrent het geheugen nu ook aangetoond konden worden. Een voorbeeld is
het associationisme, van bij Aristoteles, langs de Briste empiristen, naar het connectionisme. Het
idee is simpel en klopt intuïtief, maar door de connectionistische interpretatie krijgen we ook een
wetenschappelijke verklaring voor de werking van associatie. Wanneer we bovendien zien dat een
eenvoudig netwerkje het kan, is het ook veel aannemelijker dat wij het kunnen. De
verwetenschappelijking van de geheugenpsychologie begon, zoals we zagen, bij Hermann
Ebbinghaus en ze zorgde voor een enorm productieve 20ste eeuw. Een veelheid aan
geheugenmodellen ontstond en deze traden met elkaar in competitie. Hoewel een model nooit de
complexiteit van de realiteit zal kunnen evenaren kan het ons toch inzicht bieden in de mechanismen
waarmee ons brein te werk gaat. De connectionistische modellen van de voorbije 20 jaar slagen daar
wonderwel in.
73 | P a g e
Bibliografie
Aristoteles. (2008). De memoria et reminiscentia. Retrieved March 5, 2009, from University of
Virginia Library: http://etext.virginia.edu/toc/modeng/public/AriMemo.html
Atkinson, R., & Shiffrin, R. (1969). Storage and retrieval processes in long-term memory.
Psychological Review , 179-193.
Augustinus. (1998). Confessions. London: Oxford University Press.
Baars, B. (1986). The Cognitive Revolution in Psychology. New York: Guilford Press.
Baddeley, A. D., & Logie, R. H. (1999). The Multiple-Component Model. In A. Miyake, & P. Shah,
Models of Working Memory - Mechanisms of Active Maintenance and Executive Control (pp. 28-61).
Camebridge: Camebridge University Press.
Baddeley, A. (1966). Short-term memory for word sequences as a function of acoustic, semantic, and
formal similarity. Quarterly Journal of Experimental Psychology , 362-365.
Banich, M. T. (2004). Cognitive Neuroscience and Neuropsychology. Boston: Houghton Mifflin.
Bechtel, W., & Abrahamsen, A. (1991). Connectionism and the Mind: An Introduction to Parallel
Processing in Networks. Camebridge: Blackwell.
Black, M. (1962). Models and metaphors. New York: Ithaca.
Bloch, D. (2007). Aristotle on Memory and Recollection. Leiden: Brill.
Bolter, J. D. (1984). Turing's Man: Western culture in the computer age. Chap Hill: The University of
North Carolina Press.
Bower, G. (1967). A multicomponent theory of the memory trace. In K. Spence, & J. Spence, The
psychology of learning and motivation. Vol. 1. New York: Academic Press.
Chappell, T. (2004). Reading Plato's Theaetetus. Sankt Augustin: Academia.
Clucas, S. (2002). Simulacra et Singnacula: Memory, Magic and Metaphysics in Brunian Mnemonics.
In H. Gatti, Giordano Bruno Philosopher of the Renaissance (pp. 251-272). Aldershot: Ashgate.
Company, T. T. (Composer). Breaking the Code - Alan Turing in the forest of wisdom. [D. Robinson,
Performer, & D. Robinson, Conductor] Chantilly, Virginia, United States of America.
Craik, F. I. (1979). Human memory. Annual Review of Psychology , 63-102.
Dennett, D. C. (1991). Consciousness Explained. London: Penguin Books.
Draaisma, D. (1995). De Metaforenmachine. Groningen: Historische Uitgeverij.
74 | P a g e
Estes, W. (1998). Models of human memory and their implications for research on aging and
psychopathology. Development and Psychopathology , 607-624.
Gatti, H. (2002). Giordano Bruno: Philosopher of the Rennaissance. Hants: Ashgate.
James, W. (1952). The Principles of Psychology. Chicago: The University of Chicago.
Johnson-Laird, P. (1998). Computer and the Mind: An Introduction to Cognitive Science. Camebridge
(MA): Harvard University Press.
Marr, J. (1983). Memory - Models and Metaphors. The Psychological Record , 12-19.
McClelland, J., & Rumelhart, D. (1986). Parallel Distributed Processing: Explorations in the
Microstructure of Cognition. Cambridge: MIT Press.
McCulloch, W., & Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity.
Bulletin of Mathematical Biophysics , 115-133.
McLeod, P., Plunkett, K., & Rolls, E. T. (1998). Introduction to Connectionist Modelling of Cognitive
Processes. Oxford: Oxford University Press.
Meeter, M., & Murre, J. M. (2005). Tracelink: A model of Consolidation and Amnesia. Cognitive
Neuropsychology , 559-587.
Miller, G. (1956). The magical number seven, plus or minus two: Some limits on our capacity for
processing information. Psychological Review , 81-97.
Miyake, A., & Shah, P. (1999). Models of Working Memory: An Introduction. In A. Miyake, & P. Shah,
Models of Working Memory - Mechanisms of Active Maintenance and Executive Control (pp. 1-27).
Camebridge: Camebridge University Press.
Neath, I. (1998). Human Memory: An Introduction to Research, Data and Theory. Pacific Grove:
Brooks/Cole.
Plato. (1999). Verzameld Werk (X. De Win, Trans.). Kapellen: Pelckmans/Agora.
Reynolds, R., & Schwartz, R. (1983). Relation of metaphoric processing to comprehension and
memory. Journal of educational psychology , 450-459.
Richards, I. (1965). The Philosophy of Rhetoric. Oxford: Oxford University Press.
Roediger, H. L., Capaldi, E. D., Polivy, J., Herman, C. P., & Brysbaert, M. (1998). Psychologie: een
inleiding. Gent: Academia Press.
Rosenblatt, F. (1960). On the convergence of reinforcement procedures in simple perceptrons. New
York: Cornell Aeronautical Laboratory.
Skinner, B. (1974). About Behaviorism. New York: Alfred A. Knopf.
75 | P a g e
Sperling, G. (1960). The information available in brief visual presentations. Psychological
Monographs: General and Applied , 74.
Squire, L. R. (1992). Memory and the Hippocampus: A Synthesis from Findings with Rats, Monkeys
and Humans. Psychological Review , 195-231.
Stern, D. (1991). Models of Memory: Wittgenstein and Cognitive Science. Philosophical Psychology ,
203-218.
Stoutland, F. (1988). On not being a behaviorist. In L. Hertzberg, & J. Pietarinen, Perspectives on
Human Conduct (pp. 48-60). Leiden: E.J. Brill.
Sutton, J. (1998). Philosophy and memory traces: Descartes to connectionism. Camebridge:
Camebridge University Press.
Teske, R. (2001). Augustine's Philosophy of Memory. In E. Stump, & N. Kretzmann, The Camebridge
Companion to Augustine (pp. 148-158). Camebridge: Camebridge University Press.
Turing, A. (1950). Copmputing machinery and intelligence. Mind , 433-460.
Turing, A. (1936). On computable numbers, with an application to the Entscheidungsproblem.
Proceedings of the London Mathematical Society , pp. 230-265.
Wittgenstein, L. (1982). Last Writings on the Philosophy of Psychology, Volume I. In G. V. Wright, & H.
Nyman, Preliminary Studies for Part II of the 'Philosophical Investigations'. Chicago: University of
Chicago Press.
Yates, F. (1964). Giordano Bruno adn the Hermetic Tradition. London: Routledge and Kegan Paul.
76 | P a g e
Download