
De berichtgeving over artificiële intelligentie verloopt precies zoals je verwacht. Eerst was er de hype om alles wat allemaal mogelijk was, met columnisten die blij waren dat ze via ChatGPT gebruiksaanwijzingen genereerden voor de reparatie van een keukenapparaat. Daarop volgde de tegen-hype van alle dingen die verkeerd gaan. Over een tijdje, als journalisten zin en onzin hebben leren scheiden, zullen ze evenwicht vinden. Zo gaat het immers altijd.
Ik heb eerder over digitale paleografie, digitale historische taalkunde en Ithaca geschreven, en volgens mij staan daar geen voorbarigheden in, maar er valt meer te vertellen. De crux is natuurlijk dat een computer meer data kan verwerken dan een mens en dat bovendien sneller en zonder vergissingen kan doen. Inmiddels herkennen computers, dankzij de almaar groeiende rekenkracht, patronen die voor mensen niet direct zichtbaar zijn. Daarbij gaat het om twee systemen:
- een digitale basis (knowledge base) van informatie, zoals de verzameling inscripties van Ithaca;
- een redeneermachine (inference engine) die de informatie beheert.
Beide kunnen door mensen worden gedefinieerd. In wat bekendstaat als een neuraal netwerk begint dat echter te veranderen. Samengevat komt het erop neer dat de computer zijn eigen redeneermachine organiseert en gaat werken zoals onze hersenen.
Onze hersenen
Die bestaan uit miljarden zenuwcellen (neuronen), die in voortdurend wisselende patronen elektrische signaaltjes uitwisselen met zo’n 5000 andere buurcellen. Doordat zenuwcellen soms ook informatie uitwisselen met wat verderop gelegen cellen, wisselen ook diverse hersengebieden informatie uit. Dat weten we al heel lang; ik herinner me uitleg in Kijk, zo’n vijfenveertig jaar geleden. Het springende punt is de wisselwerking tussen de hersengebieden.
De neurologen David Hubel en Torsten Wiesel slaagden erin vast te stellen dat hersenen, als de ogen licht verwerkten, de activiteiten ordenen in diverse lagen. Elk daarvan beoordeelt een bepaald aspect van de lichtprikkel. Zo is er een laag die de contouren registreert, een laag die de tweedimensionele vorm beoordeelt, een laag voor driedimensionele vorm, een laag voor kleur, een laag voor beweging.
Neurale netwerken
Hubel en Wiesel, die in 1981 de Nobelprijs kregen, inspireerden de Franse informaticus Yann LeCun, die hun inzicht benutte voor het bouwen van een systeem van beeldverwerking. Voor dat kunstmatige neuraal netwerk kreeg hij in 2018 de Turingprijs. Andere onderzoekers ontwierpen soortgelijke netwerken voor spraakherkenning, automatische vertalingen en wat dies meer zij.
Ze bestaan veelal uit grote aantallen – denk aan honderdduizenden, miljoenen – verbonden knooppunten en zijn geordend in lagen, die zó zijn gestructureerd dat gegevens maar in één richting van laag naar laag kunnen bewegen. Als een camera een lichtsignaal oppakt en doorgeeft aan het netwerk, analyseert de eerste laag dus de contouren, geeft daarna de conclusie door aan de tweede laag, die vervolgens de vorm identificeert en de dubbele conclusie weer verder doorgeeft aan de derde laag.
Door veel trainingsvoorbeelden in te voeren, kan de computer leren hoe deze zelf het proces het beste ordent. De lagen zijn dus niet ontworpen door mensen, maar het is de computer die tijdens zijn training leert hoeveel knooppunten en lagen nodig zijn om een taak naar behoren uit te voeren. De redeneermachine groeit als het ware spontaan.
De waarheid
Voor zover ik het begrijp, bezit de artificiële intelligentie vooralsnog geen waarheidsbegrip, waarmee het kan vaststellen of de gegenereerde informatie correct is. Wat het doet, is bekende informatie op de meest logische manier aanvullen. Dat kan fantastisch goed gaan, zoals bij Ithaca, maar feitelijk baseert de computer zich op het luidste signaal – alsof waarheid wordt vastgesteld met een meerderheid van stemmen.
Een voorbeeld: bij het schrijven van mijn boek Oudheidkunde is een wetenschap vroeg ik ChatGPT waar Hannibal de Alpen is overgestoken. Het programma noemde de Col de la Traversette, wat is gebaseerd op een ronkend en te vaak gedeeld onzinbericht uit 2016. Ook bij pogingen ChatGPT betere antwoorden te ontlokken, bleek het programma niet in staat het echte probleem te herkennen: de informatie uit de antieke bronnen is te gering en ambigu om überhaupt conclusies te trekken.
Anders gezegd: de computer kan niet alleen de waarheid van een bewering niet bepalen, maar kan zelfs niet herkennen of de waarheid kenbaar is. Het is een papegaai die niet begrijpt wat ’ie zegt.
Andere problemen
Een tweede probleem is dat de menselijke intelligentie en de artificiële intelligentie niet hetzelfde denken. U en ik begrijpen allerlei dingen die de computer niet herkent. Wij weten dat als je vraagt een bekend gedicht te citeren, je het online kunt opzoeken, maar ChatGPT gaat iets brouwen, zoals neerlandicus Bas Jongenelen dit weekend constateerde (lees maar hier). En wij weten dat als we een beeldprogramma verzoeken een afbeelding te maken van “de legendarische zanger Orfeus tussen de dieren”, de af te beelden persoon Orfeus heet en geen Elvis of Taylor Swift. Ook weten wij dat mensen vijf vingers hebben en even lange benen.

Een derde probleem is dat de bedrijven die artificiële intelligentie ontwikkelen, dat veelal doen met materiaal dat gratis beschikbaar is. Daar zit een inmiddels veelbesproken auteursrechtenkwestie op, maar veel wezenlijker is dat gratis informatie doorgaans slecht van kwaliteit is. Denk aan gedigitaliseerde boeken uit de negentiende eeuw, denk aan propaganda. De Groene Amsterdammer ontdekte nog niet zo lang geleden dat ChatGPT zich baseerde op informatie van Nederlandse websites met complottheorieën. Bad information drives out good.
Wat goed gaat
Dat laat onverlet dat artificiële intelligentie prachtige mogelijkheden biedt. Het archeologisch bedrijfsleven gebruikt al jaren zogeheten GIS-systemen en benut ChatGPT om delen van opgravingsrapporten te schrijven. Ik noemde hierboven enkele andere voorbeelden. De verwachting is dat kleitabletten binnenkort niet alleen kunnen worden gelezen, maar ook op hoofdlijnen vertaald: de beeldherkenning is voldoende en we beschikken al over Google Translate en DeepL. Die vertalingen zullen oppervlakkig zijn, maar zullen specialisten helpen om te zoeken naar de interessantste teksten. We moeten ons dus voorbereiden op een data-explosie.
Buiten de oudheidkunde zijn al allerlei perfect werkende systemen, die u allang kent: vertaalmachines, beeldgeneratoren en navigatiesystemen. Ik vind de plaatjes bij dit artikel eigenlijk best aardig. Er gaat al een hoop goed. Bennie Mols citeert in zijn leuke boek over artificiële intelligentie, Slim, slimmer, slimst, een mooie uitspraak: als het eenmaal werkt, noemen mensen het geen artificiële intelligentie meer.
Binnenkort zal iemand bloggen over de manier waarop de computer kijkt naar de Zevende Brief van Plato en een eeuwenoude kwestie heeft weten op te lossen.
[De oudheidkundige wetenschappen zijn in de eerste plaats wetenschappen. Een overzicht van stukjes over het wetenschappelijk aspect, vindt u daar.]

[De oudheidkundige wetenschappen zijn in de eerste plaats wetenschappen. Een overzicht van stukjes over het wetenschappelijk aspect, vindt u daar.]

Precies wat een verstandig mens denkt: AI is voor het ordenen van massale aantallen gegevens.
In zijn boek “On Intelligence” oppert Jeff Hawkins dat de menselijke intelligentie, met name de neocortex, inderdaad bestaat uit lagen, maar dat de functie niet enkel is om van sensordata hogere orde abstracties te maken, maar ook om lagere orde predicties te maken. Het predictieve aspect van onze hersenen zou de werkelijke sleutel zijn tot onze intelligentie. We hebben een intuïtief beeld van de situatie die ons te wachten staat en verwerken dan de binnenkomend gegevens naargelang van de bevestiging of ontkenning van dat beeld.
Als je bijvoorbeeld de trap afloopt, dan weet je brein wanneer het ongeveer de volgende trede mag verwachten. De aanraking bevestigt de voorspelling bijna altijd, zodat je snel een bekende trap afloopt. Soms gaat het mis, als je in het donker een onbekende trap afloopt en de begane grond er sneller is dan verwacht. Mensen kunnen nog decennia na hun jeugd de klink op de foute plaats verwachten in een deur die opnieuw geplaatst is in het ouderlijk huis. En als ik de bezem zoek in de berging, en in mijn hoofd is die groen, dan zie ik de grijze bezem gewoonweg niet staan.
Volgens Hawkins is AI supersnel in het opbouwen van abstractie uit data, maar mist het nog altijd dat vitale predictieve aspect, dat in de menselijke hersenen tot drie maal functioneler is dan het perceptieve. En zo staren wij, in virtuele of in levende lijve, ongemakkelijk naar een hand met zes vingers, want ons brein wil dat het er vijf zijn.
Het testen of de gegenereerde informatie correct is gaat als volgt : de te leren dataset wordt in twee helften verdeeld. Een helft wordt gebruikt voor het leren en de andere helft wordt gebruikt om te testen hoe succesvol dit leren was. Je geeft dus aan de input mee wat de waar is en wat fout is. Het is belangrijk je dit goed te realiseren.
Met AI heeft deze statistiek niets te maken. Wie bijvoorbeeld enorme hoeveelheid tekst wil ordenen maakt gebruik van het lerend vermogen van AI om spelling of namen gelijk te trekken. Bij korte teksten kan de mens dat ook zelf wel. Maar niet bij heel veel tekst. Zo kunnen we nagaan of 1000 Korans qua tekst verschillen kent
Bij neurale netwerken en veel andere vormen van A.I. is dit een standaard procedure.
Een van de grootste nadelen van ai is dat het vaak als een soort blackbox gebruikt wordt en er verder niet goed naar de data wordt gekeken. Vaak wordt een voorspelling voor het grootste deel door enkele parameters bepaald. Als je statistiek gaat gebuiken ontdek je welke parameters dat zijn en ben je bewust wat je doet.
AI bepaalt de meest waarschijnlijke conclusie uit gegeven data. Bv iemand die bijstand ontvangt van de overheid heeft een dure Porsche voor de deur staan, wat denken we dan?
‘Het is een papegaai die niet begrijpt wat ie zegt’ aldus deze verhelderende en informatieve blog.
En ‘feitelijk baseert de computer zich op het luidste signaal – alsof de waarheid wordt vastgesteld met een meerderheid van stemmen’
Goed dat dit gezegd wordt.
Behalve van verstand is a.i. ook afhankelijk van data. En daaraan schort het nogal voor bijv. een studie als egyptologie. Er staat meer niet dan wel essentiële info op internet. En dat is op zich weer een heel uitgezoek.
Het OIC (Oriental Institute Chicago) heeft als beleid aangenomen om alle publikaties op internet te zetten (OIP= Oriental Institute Publications). De universiteit van Heidelberg stelt eveneens veel materiaal beschikbaar op internet en in Zwitserland heeft men de serie Orbis Biblicus et Orientalis (OBO) online gezet. En inderdaad, er staan enige 19de eeuwse publicaties online.
Het lijkt allemaal heel veel, maar het totaal is veel en veel te weinig om goede a.i. te kunnen geven.
Overigens zijn n.m.m. de a.i. afbeeldingen van Europa op de stier en Paris met de 3 Gratïën waardeloze zoetsappige plaatjes. Ook de kostuums kloppen m.i. niet.
Het derde gesignaleerde probleem betreft niet alleen AI. Slecht onderwijs levert ook slecht onderwezen leerlingen/studenten af.
En inderdaad: mensen met veel kennis over een bepaalde periode kunnen haarfijn aangeven wat wel of niet klopt aan een bepaalde afbeelding. Laat in de nabije toekomst deze specialisten meewerken aan een betere input van gegevens.
Maar: maakt het de leek wat uit dat bepaalde details niet kloppen? En kun je verwachten dat alles tot in de puntjes historisch/archeologisch correct moet zijn? Dat is al niet het geval in tal van publicaties (zie de veelvuldige commentaren van Jona op artikelen, boeken en nieuws), laat staan voor het wereldwijde toepasbare AI (in dit geval gebruikt voor iets met een relatie tot de oudheid).
ik denk dat we AI binnen de archeologie/oudheidkunde goed kunnen gebruiken bij het vertellen van het verhaal van het verleden. De ontwikkelingen gaan steeds sneller, maar als het plaatje van Europa op de stier een ‘eerste’ begin is, zijn de verwachtingen bij mij hoog gespannen.
Ik vind heel dat gedoe rond AI maar niets. Wetenschap moet bedreven worden door de mens en voor de mens en niet door machines en voor machines. Vooruitgang in wetenschappelijk onderzoek mag best langzaam gebeuren.
Ja! Wel vooruitgang, maar tien maal zo traag! Heerlijke wensdroom…
https://www.computable.nl/2024/09/16/kabinet-zet-ai-in-om-administratietijd-in-zorg-te-halveren/
“De lagen zijn dus niet ontworpen door mensen, maar het is de computer die tijdens zijn training leert hoeveel knooppunten en lagen nodig zijn om een taak naar behoren uit te voeren. De redeneermachine groeit als het ware spontaan.”
Niet helemaal. Het aantal lagen en het aantal knooppunten wordt wel degelijk door mensen bepaald en wordt vóór de trainingssessie ingesteld. In welke mate de knooppunten tussen de diverse lagen met elkaar verbonden worden, dàt wordt tijdens de training door het neurale netwerk zelf bepaald. Die kennis groeit inderdaad spontaan op basis van combinaties van invoer en gewenste uitvoer (ook weer door mensen aangegeven). Na zo’n training kan door bijvoorbeeld de methode die Raymond aangeeft getest worden hoe goed de training is verlopen. Is dat niet goed genoeg, dan kan je opnieuw trainen met meer/minder lagen en meer/minder knooppunten.
Dank!
Een van de vervelende dingen met AI momenteel is, is dat het , alhoewel het in sommige gevallen een geweldig hulpmiddel kan zijn, het momenteel erg in de mode is. en dien ten gevolge het nogal eens in onderzoekvoorstellen wordt gepropt die er dan meteen revolutionair en vernieuwend uitzien.
Allereerst wordt goed onderzoek natuurlijk gekenmerkt door een goede vraagstelling, niet door het gebruik van fancy methodes. En ten tweede moet je bij het ontwikkelen van toepassingen van AI echt goed weten wat je doet. Men moet hier echt veel zorgvuldiger worden.
Slachtoffers zijn de jonge onderzoekers, AIO’s vaak. Jong, intelligent, ambitieus. Zij zijn eerst harstikke blij aangenomen te zijn en komen er dan na enige tijd achter met een klote onderwerp opgezadeld te zijn, met iets wat niet of heel beperkt werkt.
Ik ken hiervan verschillende voorbeelden met AI. Is onnodig.
https://www.turing.com/kb/an-overview-of-bayesian-networks-in-ai
Wie iets zinnigs over AI wil zeggen moet het bovenstaande artikel (bayesian networks) eerst begrijpen.