Computational Modelling of Artificial Language Learning: Retention, Recognition & Recurrence Raquel Garrido Alhama Samenvatting; In de afgelopen twintig jaar is Artificial Language Learning één van de belangrijkste benaderingen geworden in het onderzoek naar hoe we het spraaksignaal in stukken opdelen en hoe we regels van onze moedertaal leren. In de experimenten in dit paradigma krijgen proefpersonen een reeks van stimuli te horen of te zien, waarin bepaalde (statistische) regelmatigheden verborgen zitten die lijken op de regelmatigheden in spraak en taal. Proefpersonen worden vervolgens getest om er achter te komen òf, en onder welke voorwaarden zij het onderliggende patroon kunnen ontdekken. In dit proefschrift gebruik ik computermodellen om de resultaten van dergelijke experimenten — met babies, volwassenenen en dieren — beter te analyseren en interpreteren. Doel van die analyse is een beter begrip van de meest fundamentele mechanismen die een rol spelen bij het leren van taal. Ik stel voor om over het leerproces in Artificial Language Learning-experimenten na te denken als bestaande uit 3 stappen: (i) het opslaan in het geheugen van fragmenten van de input; (ii) het berekenen van de bereidheid tot generalisatie; (iii) het daadwerkelijk generaliseren. In dit proefschrift werk ik voor ieder van deze stappen een computermodel uit. Stap (i) is relevant voor ons begrip van hoe mensen het continue spraaksignaal in discrete segmenten kunnen opdelen. In hoofdstuk 3 stel ik het Rentention & Recognition-model voor, dat het segmentatie-proces beschrijft als het resultaat van een interactie tussen kortdurende retentie van stukken van het signaal, opslag in het geheugen en het herkennen van een segment in de input. Ik laat zien dat dit model een verklaring biedt voor een reeks van empirische resultaten met mensen en ratten (Peña et al., 2002; Toro and Trobalón, 2005; Frank et al., 2010). R&R geeft een natuurlijke verklaring voor het segmentatie-proces. Bovendien was R&R de aanleiding om eens goed te kijken naar de frequentie-verdelingen van segmenten, en daarmee tot de ontdekking dat die verdelingen vaak heel scheef zijn en dat de frequenties van zogeheten ‘words’ en ‘partwords’ vaak overlappen. Stap (ii) is in dit proefschrift een aparte stap in het generalisatie-proces, en dat feit op zich is één van de innovaties in dit proefschrift. In hoofdstuk 5 gebruik ik een bestaand model uit de natuurlijke taalverwerking voor het ‘gladstrijken’ (‘smoothing’) van kansverdelingen, te weten het Simple Good Turing-model (SGT, Good (1953)). Ik laat zien dat het principe waar dit model op gebaseerd is een goede verklaring biedt voor de observaties uit experimenten met mensen. In hoofdstuk 6 begin ik mijn analyse van stap (iii) met een kritisch overzicht van bestaande modellen, om een duidelijk beeld te krijgen van wat er op dit punt al bereikt is en wat de open vragen zijn. Ik eindig dat hoofdstuk met een lijst van ‘desiderata’ — nastrevenwaardige kenmerken van toekomstige modellen van generalisatie. In hoofdstuk 7 werk ik vervolgens een neuraal netwerk-model uit dat al voldoet aan een belangrijk deel van de genoemde kenmerken op dat verlanglijstje. Mijn model biedt een verklaring voor de resultaten van één van de meest invloedrijke studies uit de ALL-literatuur (Marcus et al., 1999). Het model maakt gebruik van twee cruciale ideeën: ‘pre-wiring’ — het idee dat het netwerk al voorafgaand aan het leren verbindingen tussen neuronen heeft die het een extra vorm van geheugen geven — en ‘pre-training’ — het idee dat het netwerk voordat het de stimuli uit het experiment te zien krijgt, al op een manier getraind is die generalisatie faciliteert. Op meerdere plekken in het proefschrift komen methodologische kwesties aan de orde. Ik begin met een bespreking van Marr’s analyse-niveaus (Marr, 1982) en de consequenties van de keuze voor een top-down of bottom-up benadering. Daarna bespreek ik de voor- en nadelen van die verschillende keuzes. Ik concludeer dat wat de beste benadering is, sterk afhangt van de onderzoeksvraag. Tenslotte behandel ik ook methodologische vragen over hoe we modellen moeten evalueren. In een vergelijkende studie van computermodellen in hoofdstuk 4 behandel ik een aantal alternatieve manieren van evalueren (‘model parallelisation’ vs. ‘model sequencing’, ‘internal representations’ vs. ‘external output’). Daarbij laat ik zien dat verschillende evaluatieprocedures naast elkaar kunnen en moeten bestaan, en dat we voor de ALL-modellen striktere evaluatie-criteria kunnen formuleren. Dit proefschrift biedt al met al een geïntegreerd perspectief op de segmentatieen generalisatie-processen in Artificial Language Learning, op basis van computermodellen die empirische observaties reproduceren, toetsbare voorspellingen doen, een bijdrage leveren aan het oplossen van open vragen in het vakgebied, en daarmee tot een beter begrip leiden van de fundamentele processen die aan het leren van taal ten grondslag liggen.