Er is slechts één probleem: AI is niet intelligent, en dat is een systemisch risico
Het nabootsen van intelligentie is geen intelligentie. AI-nabootsing is dan ook een krachtig hulpmiddel, maar niet intelligent.
De mythologie van Technologie heeft een speciaal altaar voor AI, kunstmatige intelligentie , die eerbiedig wordt aanbeden als de bron van verbazingwekkende kostenreducties (omdat menselijke arbeid wordt vervangen door AI) en de grenzeloze uitbreiding van consumptie en winst. AI is de gelukzalige perfectie van de natuurlijke vooruitgang van technologie naar steeds grotere machten.
Er is consensus over het feit dat de opkomst van AI zal leiden tot een utopie van vrijwel onbeperkte controle over de natuur en een overvloed aan vrije tijd en overvloed.
Als we het gordijn van de mythologie opzij trekken, zien we dat AI menselijke intelligentie nabootst , en deze nabootsing is zo fascinerend dat we het als bewijs van daadwerkelijke intelligentie beschouwen. Maar nabootsing van intelligentie is geen intelligentie, en dus is AI-nabootsing een krachtig hulpmiddel, maar niet intelligent.
De huidige iteraties van generatieve AI – grote taalmodellen (LLM’s) en machinaal leren – bootsen ons natuurlijke taalvermogen na door miljoenen voorbeelden van menselijk schrijven en spreken te verwerken en te achterhalen welke algoritmen de beste antwoorden op vragen selecteren.
Deze AI-programma’s hebben geen begrip van de context of de betekenis van het onderwerp; ze delven menselijke kennis om een antwoord te distilleren. Dit is potentieel nuttig, maar geen intelligentie.
De AI-programma’s hebben een beperkte capaciteit om waarheid van onwaarheid te onderscheiden , vandaar hun neiging om ficties als feiten te hallucineren . Ze zijn niet in staat om het verschil te zien tussen statistische variaties en fatale fouten, en het toevoegen van voorzorgsmaatregelen voegt extra complexiteit toe die een ander punt van falen wordt.
Wat machinaal leren betreft, kan AI plausibele oplossingen projecteren voor rekenintensieve problemen, zoals hoe eiwitten zich vouwen. Maar deze brute rekenkracht is ondoorzichtig en daarom van beperkte waarde: het programma begrijpt de eiwitvouwing niet op dezelfde manier als mensen dat doen, en we begrijpen niet hoe het programma tot de oplossing is gekomen.
Omdat AI de context niet echt begrijpt, is het beperkt tot de opties die in de programmering en algoritmen zijn ingebouwd. We onderscheiden deze beperkingen in op AI gebaseerde apps en bots, die zich niet bewust zijn van het werkelijke probleem. Bijvoorbeeld, onze internetverbinding is verbroken vanwege een corrupte systeemupdate, maar omdat deze mogelijkheid niet was opgenomen in het universum van problemen die in de app moesten worden opgelost, meldt de AI-app/bot plichtsgetrouw dat het systeem perfect functioneert, ook al is het kapot. (Dit is een voorbeeld uit het echte leven.)
Eigenlijk creëert elke laag van deze mining/mimicry extra zwakke punten: het onvermogen om het verschil te zien tussen feiten en fictie of tussen toegestane foutpercentages en fatale fouten, de extra complexiteit van voorzorgsmaatregelen en de ondoorzichtigheid van de black box. Dit alles leidt tot het risico dat normale ongelukken leiden tot systeemfalen.
Er is ook het systemische risico dat ontstaat door te vertrouwen op black-box AI om systemen te laten werken tot het punt dat mensen de capaciteit verliezen om de systemen te wijzigen of te herbouwen. Deze overmatige afhankelijkheid van AI-programma’s creëert het risico van een cascade van falen, niet alleen van digitale systemen, maar ook van de infrastructuur in de echte wereld die nu afhankelijk is van digitale systemen.
Er is een nog schadelijker gevolg van het afhankelijk zijn van AI voor oplossingen. Net zoals de verslavende aard van mobiele telefoons, sociale media en internetcontent ons vermogen om ons te concentreren, te focussen en moeilijk materiaal te leren heeft verstoord – een verwoestende daling van het leren voor kinderen en tieners – biedt AI een overvloed aan snackable factoids , fragmenten van codering, door de computer gegenereerde tv-reclames, artikelen en hele boeken waarvoor we geen diepgaande kennis van onderwerpen en processen meer nodig hebben. Als we dit begrip missen, zijn we niet langer uitgerust om sceptisch onderzoek te doen of content of codering vanaf nul te creëren.
Het moeizame proces om deze kennis te verwerven lijkt nu inderdaad overbodig: de AI-bot kan het allemaal, snel, goedkoop en nauwkeurig. Dit creëert twee problemen: 1) wanneer black-box AI-programma’s falen, weten we niet langer genoeg om de storing te diagnosticeren en te verhelpen, of het werk zelf te doen, en 2) we zijn het vermogen verloren om te begrijpen dat er in veel gevallen geen antwoord of oplossing is die het laatste woord heeft: het “antwoord” vereist interpretatie van feiten, gebeurtenissen, processen en kennisbanken die inherent dubbelzinnig zijn.
We beseffen niet meer dat het AI-antwoord op een vraag geen feit is, maar een interpretatie van de werkelijkheid die als feit wordt gepresenteerd . De AI-oplossing is slechts een van de vele mogelijke oplossingen, die elk hun eigen intrinsieke nadelen hebben en op de lange termijn onvoorziene kosten en gevolgen met zich meebrengen.
Om het verschil te kunnen zien tussen een interpretatie en een verondersteld feit, is een zee van kennis nodig die zowel breed als diep is. En als we de motivatie en het vermogen verliezen om moeilijke materie te leren, verliezen we ook het vermogen om überhaupt te herkennen wat we verloren zijn: mensen met weinig echte kennis missen de basis die nodig is om het antwoord van AI in de juiste context te begrijpen.
Het netto resultaat is dat we minder bekwaam en minder goed geïnformeerd worden, blind voor de risico’s die ontstaan door ons verlies van competentie, terwijl de AI-programma’s systemische risico’s introduceren die we niet kunnen voorzien of voorkomen. AI verlaagt de kwaliteit van elk product en systeem, want mimicry genereert geen definitieve antwoorden, oplossingen en inzichten, het genereert alleen een illusie van definitieve antwoorden, oplossingen en inzichten die we domweg verwarren met echte intelligentie.
Terwijl de neofeodale corporate-staat de winsten toejuicht die behaald kunnen worden door het massaal uitroeien van menselijke arbeid, heeft de mijnbouw/nabootsing van menselijke kennis grenzen. Vertrouwen op de AI-programma’s om alle fatale fouten te elimineren is op zichzelf een fatale fout, en dus moeten mensen in de beslissingslus blijven (de OODA-lus van observeren, oriënteren, beslissen, handelen).
Zodra AI-programma’s worden ingezet voor processen op het gebied van levensveiligheid of gezondheidszorg, is elke entiteit die met het AI-programma is verbonden, blootgesteld aan een onbeperkte ( hoofdelijke ) aansprakelijkheid als er schadelijke of fatale fouten optreden.
Als we de mythologie en de overdrijving eruit halen, houden we een neofeodale structuur over: de rijken worden bediend door mensen, en de rest van ons zit opgescheept met een AI-dienst van lage kwaliteit, die gevoelig is voor fouten en waar we niets aan kunnen doen.
De verwachting van AI-promotoren is dat Generative AI biljoenen dollars aan winst zal opleveren door kostenbesparingen en nieuwe producten/diensten. Dit verhaal brengt de echte wereld niet in kaart , waarin elke AI-softwaretool eenvoudig gekopieerd/gedistribueerd kan worden en het dus onmogelijk zal zijn om schaarstewaarde te beschermen , wat de essentiële dynamiek is om de prijsmacht te behouden die nodig is om buitensporige winsten te behalen.
De softwaretools die iedereen bezit, hebben weinig waarde, tenzij een monopolie de distributie beperkt. Ook de content die door deze tools automatisch wordt gegenereerd, heeft weinig waarde: de miljoenen door AI gegenereerde liedjes, films, persberichten, essays, onderzoeksrapporten en dergelijke zullen elk potentieel publiek overweldigen en de waarde van alle door AI gegenereerde content tot nul reduceren.
De promotors beweren dat de massale afbraak van banen op magische wijze zal worden gecompenseerd door geheel nieuwe industrieën die door AI zijn gecreëerd , wat een echo is van de overgang van landarbeid naar fabrieksbanen. Maar de AI-draak zal zijn eigen staart opeten, want hij creëert weinig banen of winsten die kunnen worden belast om mensen te betalen voor het niet werken (Universeel Basisinkomen).
Misschien wel de meest consequente beperking van AI is dat het niets zal doen om de meest urgente problemen van de mensheid terug te draaien. Het kan de Great Pacific Trash Gyre niet opruimen , of de 450 miljoen ton grotendeels ongerecycled plastic die elk jaar wordt uitgestoten beperken, of klimaatverandering terugdraaien, of lage aardbanen schoonmaken van de duizenden hogesnelheidsbits gevaarlijk afval, of de zeer winstgevende Waste is Growth Landfill Economy omvormen tot een duurzaam wereldwijd systeem, of alle bronnen elimineren van wat ik Anti-Progress noem .
Het zal alleen maar leiden tot nieuwe bronnen van systemisch risico, verspilling en neofeodale uitbuiting.