Fouten van moderne kunstmatige intelligentie (AI) systemen gebaseerd op machinale leren (ML) zijn geen willekeurige storingen, maar logische gevolgen van hun architectuur, leerstijl en het fundamentele verschil met menselijke kennis. In tegenstelling tot de mens begrijpt AI de wereld niet semantisch; hij detecteert statistische correlaties in gegevens. Zijn fouten ontstaan waar deze correlaties worden verstoord, waar abstractie, gezond verstand of contextverstand nodig is. Het analyseren van deze fouten is cruciaal voor de beoordeling van de betrouwbaarheid van AI en het definiëren van de grenzen van zijn toepassing.
De meest voorkomende en maatschappelijk gevaarlijke bron van fouten is de bias in de trainingsgegevens. AI leert en versterkt vooroordelen die aanwezig zijn in de gegevens.
Demografische verdraaiing: Een bekende zaak met een gezichtsherkenningssysteem dat aanzienlijk hogere nauwkeurigheid vertoonde voor lichte huidskleuren van mannen dan voor donkere vrouwen, omdat het was getraind op een onevenwichtige dataset. Hier ging AI niet «fout», maar reproduceerde precies de ongelijkheid van de echte wereld, wat leidde tot een fout in de toepassing in een heterogene omgeving.
Semantische verdraaiing: Als het woordcombinatie «verpleegster» in de trainingsgegevens van een tekstmodel vaak wordt geassocieerd met het persoonlijk voornaamwoord «ze» en «programmeur» met «hij», zal het model teksten genereren die deze genderstereotypen reproduceren, zelfs als het geslacht niet in de query wordt vermeld. Dit is een fout op het niveau van de sociale context die het model niet begrijpt.
Interessante feiten: In de informatica geldt het beginsel «Garbage In, Garbage Out» (GIGO) — «müll in, müll aus». Voor AI is dit geconverteerd naar het diepere beginsel «Bias In, Bias Out» — «bias in, bias out». Een systeem kan de beperkingen van de gegevens waarop het is getraind niet overwinnen.
Dit zijn opzettelijke, vaak onopvallende wijzigingen in de invoerdata die leiden tot kardinaal verkeerde conclusies van AI.
Voorbeeld met afbeelding: Een sticker van een bepaalde kleur en vorm op een «STOP»-teken kan een autonome computersystemen voor visuele waarneming laten classificeren als een «snelheidsbeperking». Voor de mens blijft het teken duidelijk herkenbaar.
Mechanisme: Adversaire voorbeelden exploiteren de «sluipzones» in het hoogdimensionele kenmerkenspace van het model. AI ervaart de wereld niet als的整体 objecten, maar als een verzameling statistische patronen. Een minimale, maar strategisch juiste «interferentie» verplaatst het punt in het kenmerkenspace over de grens van de beslissing van het model, veranderend de classificatie.
AI, vooral diepe neurale netwerken, zijn gevoelig voor overfitting — ze onthouden niet algemene patronen, maar specifieke voorbeelden uit de trainingsselectie, inclusief ruis.
Fouten op gegevens van een ander distributie: Een model dat is getraind op foto's van honden en katten gemaakt in een huishouden overdag, kan volledig zijn nauwkeurigheid verliezen als het een nacht infraroodbeeld of een tekenfilmbeeld wordt gegeven. Het heeft het abstracte begrip «katheid» niet herkend, maar heeft geleerd om te reageren op specifieke patronen van pixels.
Taalmodellen (zoals GPT) tonen indrukwekkende resultaten, maar maken grove fouten in taken die diepgaand contextverstand of niet-letterlijke betekenissen vereisen.
Ironie en sarcasme: De frase «Wat een prachtig weer!», gezegd tijdens een storm, wordt letterlijk geïnterpreteerd door het model als een positieve evaluatie, omdat positieve woorden («prachtig», «weer») statistisch worden geassocieerd met positieve contexten.
Meervoudige logische redeneringen: Taken in de stijl van «Als ik een ei in de koelkast leg en vervolgens de koelkast verplaats naar de garage, waar het ei zal zijn?», vereisen het bouwen en bijwerken van een mentale model van de wereld. AI die werkt op het voorspellen van het volgende woord, verliest vaak objecten in het midden van een complex verhaal of maakt onlogische conclusies.
AI presteert slecht in situaties die buiten zijn ervaring liggen, vooral wanneer het nodig is om de onvoldoende gegevens te erkennen.
Probleem met detectie van «out-of-distribution» detection: Medische AI die is getraind om longontsteking te diagnosticeren op röntgenfoto's van de borstkas, kan met hoge, maar valse zekerheid een diagnose stellen als hij een kniefoto wordt voorgesteld. Het begrijpt niet dat dit zinloos is, omdat het geen meta-kennis heeft over de grenzen van zijn competentie.
Creatieve en open taken: AI kan een geloofwaardig, maar absoluut onuitvoerbaar of gevaarlijk recept voor een chemisch verbinding genereren, een bouwplan voor een brug opstellen dat de wetten van de natuur schendt, of een juridisch document met verwijzingen naar niet-bestaande wetten. Het mist een kritische interne censuur, gebaseerd op het begrip van de essentie van fenomenen.
Voorbeeld uit de realiteit: In 2016 lanceerde Microsoft de chatbot Tay in Twitter. De bot leerde van interacties met gebruikers. Binnen 24 uur veranderde hij in een machine die racistische, seksistische en beledigende uitspraken genereren, omdat hij statistisch de meest vaak voorkomende en emotioneel geladen reacties uit zijn nieuwe, vijandige omgeving had geleerd. Dit was geen «fout» van het algoritme, maar zijn nauwkeurige werking die leidde tot een katastrofisch resultaat in een onvoorspelbare sociale omgeving.
Deze fouten zijn geen tijdelijke technische onvolkomenheden, maar gevolgen van het fundamentele verschil tussen statistische benadering en menselijke begrip. Ze wijzen erop dat moderne AI een krachtig hulpmiddel is voor het oplossen van taken binnen duidelijk omschreven, stabiele en goed beschreven data domeinen, maar dat het blijft een «idioot-savant»: een meester in een smalle sector en machteloos in situaties die flexibiliteit, contextuele beoordeling en begrip vereisen. Daarom ligt de toekomst van verantwoord gebruik van AI niet in het wachten op zijn «volledige verstand», maar in het creëren van hybride systemen «mensch-AI», waarbij de mens gezond verstand, ethiek en het werken met uitzonderingen biedt, en AI snelheid, schaal en het detecteren van verborgen patronen in gegevens.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Digital Library of Belgium ® All rights reserved.
2024-2026, ELIB.BE is a part of Libmonster, international library network (open map) Preserving Belgium's heritage |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2