Loading AI tools
een verzamelnaam om via algoritmen en methoden de menselijke intelligentie te evenaren Van Wikipedia, de vrije encyclopedie
Kunstmatige intelligentie (KI) of artificiële intelligentie (AI) is het nabootsen van menselijke vaardigheden met een computersysteem zoals leren, plannen, redeneren, anticiperen en zelfstandig beslissen zonder tussenkomst van menselijke intelligentie.[1][2]
Artificiële intelligentie wordt geoptimaliseerd met meerdere technieken, zoals machinelearning en besluitvormingen. Voor de ontwikkeling van een AI-systeem zijn de volgende technische aspecten essentieel:[3]
Het ontwikkelde, en vereenvoudigde, gegevensmodel kan bijvoorbeeld geïntegreerd worden in een toestel, om patronen razendsnel en nauwkeurig te herkennen.[3] Een voorbeeld is de nieuwe AI-app, die aan de hand van een scan pijn kan herkennen bij katten. De app werd ontwikkeld door Professor Kazuya Edamura en de Nihon Universiteit in Japan. De AI werd eerst getraind met 6.000 foto's van katten.[4]
Sinds de publicatie in 1950 van "Computing Machinery and Intelligence" door Alan Turing, groeide de interesse fors om een intelligente machine te bouwen. Turing suggereerde dat mensen bestaande data gebruiken, analyseren, en met deze informatie beslissingen concluderen.[5] De huidige AI is ook gericht op hoe computers beslissingen kunnen nemen op basis van bestaande gegevens.[3]
De technologische middelen waren in 1950 beperkt, en de aanvankelijke ambitieuze doelstellingen voor AI werden afgezwakt. Marvin Minsky vertelde in 1970 aan Life Magazine "dat hij en zijn team binnen 8 jaar een machine met intelligentie van een gemiddelde mens hebben gebouwd". Maar een doorbraak kwam er niet vanwege de beperkte rekenkracht en opslagcapaciteit. De ontwikkelde AI bleef beperkt tot patroonvergelijkingen en besluitvormingsprogramma's. Twee voorbeelden zijn ELIZA, en IBM’s computerprogramma Deep Blue, dat de grootmeester schaken Gary Kasparov versloeg.[5]
De wet van Moore speelt een belangrijke rol in de moderne artificiële intelligentie. De algoritmen zijn niet zozeer spectaculair verbeterd ten opzichte van de jaren 1990, maar de geheugencapaciteit van de huidige computers wel. Plots konden big data verzameld worden om te analyseren en te classificeren, zodat computers konden leren van menselijke logica.[5] Met deze belangrijke stap kan bijvoorbeeld een gezicht herkend worden in een ruimte met meerdere objecten, en zonder dat de gezichten op voorhand bekend zijn in het systeem. Een AI met één onderwerp wordt kleine AI genoemd, heeft een laag energieverbruik en kan geïntegreerd worden in een app of een smartphone.[6]
Het ontwikkelingsproces voor de huidige AI bestaat uit een vijftal stappen:[7]
De vooruitgang en streefdoelen van artificiële intelligentie kan worden onderscheiden in drie fases:[3]
Type | Beschrijving | Gerealiseerd |
---|---|---|
Smalle of zwakke AI | Deze fase verwijst naar de mogelijkheid van een computersysteem om specifieke taken beter uit te voeren dan een mens. Dit niveau is de hoogste succesvolle AI-ontwikkeling tot nu toe. | ✓ |
Generale of sterke AI | Deze fase biedt de capaciteit om elke intellectuele taak beter uit te voeren dan de mens. Deze vorm van AI komt vooral voor in films en is momenteel sciencefiction. Hiermee zou een computersysteem minstens hetzelfde oordeel kunnen vellen als het menselijk brein. Dit is het nieuwe streefdoel. | X |
Super AI of ASI | De laatste fase, een superintelligent computersysteem is in staat de mens op vrijwel elk vlak te verslaan, met inbegrip van wetenschappelijke creativiteit, algemene kennis en sociale vaardigheden. | X |
Het populaire GPT-3-AI-model van OpenAI werd in de eerste helft van 2020 gelanceerd. Een AI-chatbot behoort tot de grote AI en heeft een hoog energieverbruik, omdat het zich richt op algemene onderwerpen via een supercomputer.[6] Hierbij stelden Katherine Elkins en Jon Chun zich de vraag of ChatGPT de turingtest zou doorstaan. Na onderzoek bleek dat GPT-3 met zijn huidige technologie nog niet de fase van generale AI heeft bereikt,[8] maar wel het punt van introductie van een bescheiden, generatieve kunstmatige intelligentie.[9]
Om de menselijke kennis te digitaliseren voor computerbeslissingen worden technieken gebruikt zoals machinelearning en deep learning. Deze vorm valt onder cognitieve AI en is een onmisbare onderdeel in de huidige artificiële intelligentie.[10] Er bestaan ook nog andere technieken zoals datawetenschappen.[3]
Een computersysteem wordt getraind met subsets van bestaande gegevens die het onderwerp analyseert en inzichten verwerft voor het herkennen van patronen om hieruit nieuwe en samengevatte informatie te concluderen. Dit proces wordt in de praktijk datamining genoemd en kan ongestructureerde gegevens filteren om relevante datapunten te ontcijferen.
Deze techniek maakt gebruik van de simulatie van biologische neurale netwerken, via geavanceerde machinelearning. Een diep neuraal netwerk heeft met synapsen vergelijkbare knooppunten, en is geïnspireerd op de structuur van het brein. Dit leidt tot een reeks gerelateerde vragen voor elke vraag die wordt beantwoord, waarbij het diepe neurale netwerk, via terugkoppeling, zichzelf kan bijsturen.
Datawetenschap maakt gebruik van wiskunde en statistieken zoals metingen van afstanden van ogen, neus, lippen om een persoon te analyseren en te vergelijken met een AI-model met relevante datapunten. Vroeger was wiskunde de AI bij uitstek maar deze techniek is tegenwoordig enkel een onderdeel van AI.
Robotica is een AI-software met fysieke uiterlijke kenmerken die zich via sensoren autonoom kan verplaatsen zonder instructies van een mens. De sensoren meten en screenen constant de omgeving. Belangrijk om te weten is dat niet elke robot met AI is uitgerust. Bijvoorbeeld een robotarm in een autofabriek is enkel geprogrammeerd voor een specifiek doel.
Om AI te trainen wordt een AI-leermodel gebruikt om (big) data te verwerken en te analyseren. Een algoritme behoort tot de basiselementen die nodig zijn om een AI-systeem te trainen en te hertrainen. Een algoritme kent geen vermoeidheid en doet precies waarvoor het is geprogrammeerd als er geen bugs aanwezig zijn. Het verwerkt snel grote hoeveelheden data tot een geoptimaliseerd taalmodel of gegevensmodel. Voorbeelden van eindproducten zijn patroonherkenning in smartphones, het stellen van diagnoses van ziektebeelden, zelfrijdende auto's en zoekbots.[1][2]
Een machine-learning-algoritme[11] bevat vijf leermodellen die vervolgens gecombineerd kunnen worden naargelang het beogende doel:[7]
AI is al een groot deel van onze samenleving geworden met technieken om het ons gemakkelijker te maken. Maar AI wordt ook ingezet bij niet-alledaagse zaken of niet voor de hand liggende onderwerpen. AI kent geen grenzen op dit vlak en kan met allerlei andere technieken gecombineerd en geïntegreerd worden.
Technieken als neurale netwerken en genetische algoritmen laten zien dat de AI ook inspiratie haalt uit de biologie. Datawetenschap is vaak gerelateerd aan AI. De kunstmatige intelligentie zou dus ook gezien kunnen worden als een brug tussen verschillende disciplines.
Google maakt voor het zoekalgoritme steeds meer gebruik van AI-technologie zoals Hummingbird en RankBrain. Dit implementeert onder andere semantisch zoeken en zorgt ervoor dat een zoekopdracht direct het antwoord geeft in de resultaten. Bijvoorbeeld zoek: "Wat is de hoofdstad van Nederland?" Dan zal het eerste resultaat "Amsterdam" zijn. Ook in andere facetten zoals online marketing wordt artificiële intelligentie steeds belangrijker. Zo kunnen AI-tools marketeers onder meer helpen bij marketing-automatisatie en personalisatie.[12]
Reeds vanaf de jaren 50 is AI een onderdeel geworden van spelcomputers. In de jaren 80 werd AI ook bij videospellen betrokken om bij de non-player characters responsief en adaptief gedrag te genereren, behalve bij casinospellen, die op willekeurige modellen gebaseerd zijn. Door de jaren heen kreeg AI ook systematisch meerdere rollen toegekend zoals ontwerp, ontwikkeling en fysieke waarnemingen. Vandaag de dag wordt AI ook ingezet als creativiteit tijdens het ontwikkelen van games. Zo is het mogelijk via machinelearning eerst slimme tools te trainen die in de plaats van de mens creatief kunnen zijn. Een voorbeeld is het opvullen en bemeubelen van ruimtes.[13]
Een beknopte tijdlijn:
Er bestaan reeds apps en programma's die teksten en afbeeldingen door AI-systemen gemaakt kunnen detecteren. Een gratis computerprogramma "DeepFake-o-meter" is een voorbeeld hiervan. AI-content met mensen hebben nog steeds mankementen zoals onnatuurlijke handen, zes vingers, alle vingers even lang, rare houdingen of vreemde schaduwvormen midden in het oog.[14]
Dat echte- en AI-foto's moeilijk te onderscheiden zijn, bewees fotograaf Miles Astray met zijn flamingo op een wit strand. Hij won de People's Vote Award in de AI-categorie van de "fotowedstrijd 1839 Awards". Hij werd echter gediskwalificeerd omdat hij een echte foto had ingestuurd. Achteraf zei hij: "Ik ben blij om te zien dat dit experiment mijn hypothese heeft bevestigd: er is niets meer fantastisch of creatief dan Moeder Natuur zelf". Hiermee wou hij iedereen laten herinneren dat mensen ook nog creatief kunnen zijn zonder AI.[15]
Het smeden van computerintelligentie begon in de jaren dertig door de Engelse wiskundige Alan Turing, een van de voorvaders van de informatica. Computers waren voor 1949 ontzettend duur en konden geen commando's opslaan om te herinneren wat ze deden. De theorieën waren aanwezig om geverifieerd te worden maar er waren nog belangrijke obstakels te overbruggen om effectief een intelligente machine te bouwen.[5]
In 1936 probeerde Alan Turing voor het eerst een antwoord op de vraag te formuleren of machines zouden kunnen denken en menselijke intelligentie vertonen. Aan de hand van een turingtest publiceerde hij het volgende gedachte-experiment: stel een computer kan iemand laten geloven dat hij een mens is, dan concludeerde hij dat de computer intelligentie vertoont. In 1950 publiceerde Turing een aanvulling op zijn turingtest, de Computing Machinery and Intelligence, waarin hij uitvoerig bespreekt hoe intelligente machines kunnen worden gebouwd om hun intelligentie te testen. Sinds 1965 wordt er jaarlijks een Turing Award uitgereikt, de meest prestigieuze prijs te winnen in de informatica.
In 1955, vijf jaar later, werd het bewijs van turing aangetoond met de Logic Theorist, een geschreven computerprogramma door Allen Newell, Cliff Shaw en Herbert Simon. Dit wordt tegenwoordig gezien als de eerste kunstmatige intelligentieprogramma en werd gepresenteerd in 1956 tijdens Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), georganiseerd door John McCarthy en Marvin Minsky. McCarthy gebruikte voor dit evenement de term "Kunstmatige intelligentie", de Nederlandse vertaling van zijn zelf bedachte Engelse term "Artificial Intelligence".
Vanaf 1957 kon een computer meer en meer informatie opslaan wat een opleving gaf om AI-systemen verder te ontwikkelen. Allen Newell, Cliff Shaw en Herbert Simon van RAND Corporation gaven in 1957 na de Logic Theorist een demonstratie van de General Problem Solver (GPS) met hun vernieuwde algoritme genaamd means–ends analysis, het allereerste machine-learning-algoritme dat tegenwoordig bij sommige AI-systemen nog steeds gebruikt wordt.
Midden jaren 60 ontstond er forse verbeteringen in het oplossen van problemen met de nieuwe machinelearning-algoritme-aanpak en werd de chatbot ELIZA geïntroduceerd door Joseph Weizenbaum, een Duitse informaticus die er in slaagde successen te boeken met zijn interpretatie van gesproken taal met computers. Een persoon kan met ELIZA een gesprek voeren en de reacties van het programma komen tot stand in de vorm van een patroonvergelijking. Sinds 2008 wordt er jaarlijks een Weizenbaum Award uitgereikt in het wetenschappelijk tijdschrift Ethics and Information Technology.
In de jaren 1960-1969 financierde DARPA, het onderzoeksinstituut van het Amerikaans leger, researchprojecten rond kunstmatige intelligentie.[16] In 1969 kwam de financiering zwaar onder druk te staan door gebrek aan rekenkracht en opslagmogelijkheden. Hans Moravec, destijds promovendus van McCarthy, verklaarde dat computers nog steeds miljoenen keren te zwak waren om informatie te tonen.
Kunstmatige intelligentie is een interdisciplinair vakgebied. De onderzoekgebieden variëren van informatica tot datawetenschappen. Een greep uit deze gebieden: patroonvergelijkingen, booleaanse algebra, cognitieve psychologie, logica, statistiek en linguïstiek.
Begin jaren 80 liet filosoof John Searle weten het niet volledig eens te zijn met de conclusie van Turing. Volgens Turing zijn sommige computerprogramma’s intelligent te noemen maar moet het wel de turingtest doorstaan. Maar Searle bedacht en publiceerde in 1980 hiervoor het Chinese-kamer-experiment als tegenargument, een gedachte-experiment dat aantoont dat als een computer zich precies gedraagt als een mens, nog niet duidelijk is dat de computer ook denkt als een mens als deze de turingtest doorstaat. Hij neemt een mens als voorbeeld in een kamer dat Chinese tekens moet vertalen aan de hand van een codeboek. Een persoon die de vertaling overhandigd krijgt, zal denken dat de vertaler Chinees kan. Maar de persoon in de Chinese kamer kan evengoed een computer zijn.
Beide experimenten hebben een relevantie. Stel dat een kleuter een aantal foto’s van katten te zien krijgt. Dan zal de gemiddelde kleuter daarna een kat kunnen herkennen, maar volgens het Chinese-kamer-experiment zegt dat nog niets over hoe intelligent de kleuter is. Wanneer een computer ook een kat kan herkennen, vertoont de computer volgens de turingtest dezelfde mate van intelligentie als de kleuter. Dus is het moeilijk te definiëren wat intelligentie nu precies inhoudt. Maar voor AI hoeft dat niet per definitie een probleem te zijn vandaag de dag, want het is immers gedefinieerd in woorden wat de streefdoelen zijn voor hedendaagse AI. (Zie tabel type AI).
Rond de jaren 80 werd AI-ontwikkeling verder aangewakkerd mede door John Hopfield en David Rumelhart, zij populariseerden in 1982 een deep-learning-techniek waarmee computers kunnen leren van menselijke ervaringen, ook het Hopfield-netwerk genoemd. Dit zorgde voor een boost en een verbeterde algoritmische toolkit met een verhoging van fondsen tot wel 400 miljoen dollar tussen 1982 en 1990. Rond dezelfde periode introduceerde Edward Feigenbaum ook zijn besluitvormingsproces, een expertsysteem om een menselijke expert na te bootsen.
In 2024 won de Amerikaan John Hopfield en de Canadees Geoffrey Hinton samen de Nobelprijs van Fysica als pioniers in het AI-onderzoek en neurale netwerk. Hopfield won voor de fysische eigenschap van atomen en Hinton voor het statistisch netwerk van zijn boltzmann-machine.[17]
Vanaf 1990 viel de artificiële intelligentie niet langer meer onder het onderwerp "onderzoek", maar onder iets dat steeds vaker in de praktijk werd toegepast. Ondanks dat er geen grote financieringen meer werden toegekend, kwam AI toch in een stroomversnelling terecht omdat de opslagcapaciteiten toenamen. Dit is de hoofdreden waarom computer Deep Blue de wereldkampioen Gary Kasparov schaken in 1997 kon verslaan, en eveneens de Chinese Go-kampioen Ke Jie in 2017 kon verliezen van de computer Google's AlphaGo. Dit berust op wiskundige berekeningen en besluitvorming die vanuit elke gegeven startpositie vooruit denkt en de stellingen evalueert. De vereiste parameters konden (beperkt) getuned worden. Dit behoort tot het leermodel versterkt leren.
In datzelfde jaar, in 1997, werd de spraakherkenningssoftware ontwikkeld door Dragon Systems en geïntegreerd in Windows, alsook Kismet, een robot ontwikkeld door Cynthia Breazeal om emoties te herkennen en te tonen. In de jaren 90 en 2000 waren veel van de historische doelen van kunstmatige intelligentie eindelijk bereikt.
Ondanks de middelen op gebied van machinelearning al jaren voorhanden waren, kwam er pas in november 2022 de allereerste algemene AI-chatbot ChatGPT op de markt voor het grote publiek door OpenAI. Mede te danken aan de wet van Moore en de mogelijkheden van de rekenkracht, lanceerde grote softwaregiganten in een zeer korte tijd ook plots een AI-chatbot, zoals Google Gemini en Microsoft 365 Copilot. We leven in een tijd waarin enorme hoeveelheden ruwe omslachtige data door een computer kan worden verzameld en verwerkt tot informatie en patroonpunten. In de nabije toekomst liggen nog vele potentiële doorbraken in de artificiële intelligentie te wachten, maar wanneer de echte generatieve-AI aanbreekt en hoe die er uit zal zien weet momenteel nog niemand.
In België wordt het IT-beleid, met onder meer AI, overkoepeld door de F.O.D. Beleid en Ondersteuning, voor Vlaanderen door de Vlaamse Adviesraad voor Innoveren en Ondernemen (VARIO).
AI is de gezamenlijke verantwoordelijkheid van de ministeries van Economische Zaken, Justitie en Binnenlandse Zaken.[18]
Op 21 april 2021 publiceerde de Europese Commissie de tekst van de Verordening inzake de Europese aanpak op het gebied van kunstmatige intelligentie.[19] De tekst voorziet ook de oprichting van de European Artificial Intelligence Board, die belast zal worden met de uitvoering van de wetgeving en het vastleggen van best practices.
Verschillende internationale instellingen en organisaties hebben gepleit voor een verantwoorde regulering (governance) van kunstmatige intelligentie:
Een belangrijke wereldconferentie is de AI Safety Summit, voor het eerst gehouden op een tweedaagse bijeenkomst, eind 2023, in Bletchley Park in het Verenigd Koninkrijk. De mogelijk 'serieuze en zelfs catastrofale' gevaren van kunstmatige intelligentie werden daar internationaal erkend in de “Bletchley-verklaring” van 1 november 2023, ondertekend door 28 landen, waaronder de VS en het VK, China, Brazilië, India, Japan, plus de Europese Unie.[25][26][27] De volgende conferenties zijn voorzien in mei 2024 in Zuid-Korea, en eind 2024 in Frankrijk. Critici stelden echter dat op de Summit “niet de juiste vragen waren gesteld”.[28]
Naar aanleiding van de AI Safety Summit kondigde de secretaris-generaal van de VN de oprichting aan van een Hoog Adviesorgaan voor kunstmatige intelligentie, dat onderzoek moet uitvoeren en aanbevelingen uitbrengen voor de internationale governance van AI.[29]
“Openheid (open source), transparantie en brede toegang is dan weer de sleutel om de huidige en toekomstige schade van AI-systemen te beperken”, aldus meer dan 300 computerwetenschappers en vooraanstaande IT'ers, in een open brief van 31 oktober 2023, onder de koepel van de Mozilla Foundation.[30]
Sedert 2018 publiceert het Institute for Human-Centered AI aan de Stanford-universiteit een jaarlijkse AI index,[31] waarin gegevens met betrekking tot kunstmatige intelligentie worden verzameld, met de bedoeling een grondiger en genuanceerder begrip te ontwikkelen van het complexe gebied van AI.
De editie 2024[32] stelt vast: “een decennium geleden waren de beste AI-systemen ter wereld niet in staat om objecten in afbeeldingen op een menselijk niveau te classificeren. AI had moeite met taalbegrip en kon geen wiskundige problemen oplossen. Tegenwoordig overtreffen AI-systemen vaak menselijke prestaties op standaard benchmarks.” Het rapport vat de belangrijkste trends samen:
Een peiling uit 2023 in 31 landen, uitgevoerd door Ipsos, wees op gemengde gevoelens ten aanzien van AI:
Vanaf 2020 ontstonden in verschillende Europese landen projecten voor kunstmatige intelligentie,[34] veelal grote taalmodellen (LLM), meestal in open source, en sommige modellen “spreken” meerdere Europese talen. Het gaat onder meer om:
Hoewel onderzoek naar kunstmatige intelligentie reeds op gang kwam tijdens de economische hervormingen onder Deng Xiaoping, heeft de regering pas sinds 2006 gestaag een nationale agenda voor de ontwikkeling van kunstmatige intelligentie ontwikkeld, waardoor China na 2020 is uitgegroeid tot een van de leidende naties op het gebied van onderzoek en ontwikkeling van kunstmatige intelligentie.[35] De Chinese overheid ziet kunstmatige intelligentie als een pijler van China's streven om een technologische supermacht te worden.[36] Een van de belangrijkste instellingen is het Beijing Zhiyuan Onderzoeksinstituut voor Kunstmatige Intelligentie, afgekort tot Zhiyuan Instituut.
Onder de slogan “#AiforAll” ligt in India de nadruk op de toepassing van kunstmatige intelligentie in de gezondheidszorg, de landbouw, het onderwijs, slimme steden en vervoer. Op nationaal niveau werd de oprichting van onderzoeksinstituten gestimuleerd, naast een nationale strategie om onderzoeksinspanningen te coördineren en samenwerking te bevorderen. Opleiding en bijscholing van werknemers, ethische overwegingen, privacybescherming en intellectuele eigendomsrechten worden benadrukt als cruciale aandachtspunten. Het overheidsbeleid wordt onder meer gecoördineerd door NITI Aayog, National Institution for Transforming India, een denktank en adviesorgaan van de overheid.
India telt een groeiend aantal AI-bedrijven, waaronder Zoho Corporation.
Pas in 2019 werd in Rusland ernstig werk gemaakt van AI-modellen, onder coördinatie van de “AI Russia Alliance”.[37]
Artificiële intelligentie biedt vele voordelen maar soms ook nadelen. De AI-evolutie kan niet meer gestopt worden. Bepaalde kritische zaken kunnen in de toekomst nog wel verholpen worden door machines beter te trainen en te hertrainen met verbeterde algoritmische technologieën. Maar sommige risico's en nadelen zullen minder, moeilijk of zelfs nooit opgelost geraken.
Sommige verontruste wetenschappers, onder wie Eliezer Yudkowsky, hebben zelfs gepleit voor een volledige stopzetting van AI-experimenten en -ontwikkelingen van geavanceerde taalmodellen.[39] In mei 2023 kondigde computerwetenschapper Geoffrey Hinton publiekelijk zijn vertrek bij Google Brain aan, vanwege bezorgdheid over de risico's van de AI-technologie.[40]
Eind maart 2023 werd in een open brief bij Future of Life opgeroepen om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief was ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla-CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de gevaren van de AI-ontwikkeling, zowel op korte termijn als een meer fundamenteel, existentieel risico op langere termijn, bijvoorbeeld door technologische singulariteit.[41] OpenAI-CEO Sam Altman ondertekende de brief niet, omdat volgens hem OpenAI al prioriteit geeft aan veiligheid.[42]
Volgens de Australische onderzoekster Kate Crawford is kunstmatige intelligentie ondoordacht toegepast in een hele reeks omgevingen, van onderwijs via justitie tot personeelsbeleid. Terwijl machinaal leren wel cruciaal is geweest in bijvoorbeeld de klimaatwetenschap of de astronomie, is het volgens haar schadelijk wanneer het wordt toegepast op sociale systemen, en wanneer daarbij data worden gebruikt die gekleurd zijn in historische en structurele vooroordelen.[43][44] De Afro-Amerikaanse computerwetenschapper en voormalig lid van het Google Ethical Artificial Intelligence Team Timnit Gebru voert eveneens onderzoek naar diversiteit bij kunstmatige intelligentie.[45]
In haar boek Automating Inequality (“Automatisering van de ongelijkheid”) uit 2019 onderzocht Virginia Eubanks de impact van datamining, beleidsalgoritmen en voorspellende risicomodellen op arme mensen en mensen uit de arbeidersklasse in Amerika.[46]
Het Internationaal Monetair Fonds (IMF) bevestigde in een studie van 2024 het risico op toenemende ongelijkheid door kunstmatige intelligentie.[47][48]
Voor het 'trainen' van AI-systemen worden miljarden tekstfragmenten en afbeeldingen uit het internet gebruikt en zonder bronvermelding in de resultaten verwerkt. Daarmee zouden auteursrechten van schrijvers en kunstenaars zijn geschonden en hebben een class-action-zaak gestart tegen Stability AI.[49] Maar ook grote mediabedrijven, het Internet Archive en sociale media zoals Twitter en Reddit namen al maatregelen om het – in hun ogen ongeoorloofde – massaal opzuigen van informatie uit hun websites (“web scraping”) voor de training van taalmodellen tegen te gaan.[50] Een aparte kwestie is of op een bepaald moment aan een AI-systeem zelf auteursrecht zou kunnen worden toegekend.[51] Het zou dan vermoedelijk moeten gaan om een eigen prestatie, waarbij het de vraag is wat dat eigen betekent (of zou kunnen betekenen).
De Mozilla Foundation pleitte in september 2024 in het rapport Public AI[52] voor publiek eigendom van KI-aangedreven instrumenten: “een KI-ecosysteem dat uitsluitend door de markt wordt aangedreven, zal prioriteit geven aan een beperkt aantal winstgevende toepassingen. Ondertussen wordt er te weinig geld uitgetrokken voor belangrijk werk - zoals het gebruik van AI om illegale mijnbouw op te sporen, overlegdemocratie mogelijk te maken en opensource-farmaceutische ontwikkeling - in verhouding tot de maatschappelijke waarde ervan. De status quo vormt een groot structureel risico: we kunnen niet vertrouwen op een paar bedrijven om alles te maken wat onze maatschappij nodig heeft van KI, en we kunnen ons het risico niet veroorloven dat ze dat niet doen.”[52] Ook anderen waarschuwden voor een eenzijdig-commerciële uitrol van KI-toepassingen,[53] en pleitten - zoals de VN - voor een “KI-beleid voor de mensheid”,[52][54] Anderzijds groeide in de sector sedert 2022 de belangstelling voor non-profit- toepassingen van kunstmatige intelligentie,[55] in 2024 ook door OpenAI zelf,[56] en Google’s rapport AI in Action: Accelerating Progress Towards the Sustainable Development Goals van mei 2024.[57] Intussen zijn al enkele open source-platformen voor KI in gebruik,[52] onder meer BLOOM.
De vrees bestaat voor verlies van werkgelegenheid, wanneer allerhande werknemers vervangen worden door automatisering met behulp van kunstmatige intelligentie. Dat was in 2023 al de reden voor protesten van Amerikaanse scenarioschrijvers.[58] Ook IBM kondigde aan grotendeels te stoppen met het werven van nieuwe medewerkers in functies die vervangen kunnen worden door AI en automatisering.[59] De impact is echter zeer ongelijk verdeeld naar gender: volgens Amerikaans onderzoek uit 2023 zouden acht van de tien vrouwen (58,87 miljoen) in de Amerikaanse beroepsbevolking beroepen uitoefenen die in hoge mate blootstaan aan generatieve AI-automatisering (meer dan 25% van de beroepstaken) tegenover zes van de tien mannen (48,62 miljoen).[60] Ook de OESO waarschuwde in 2023 in het jaarlijks rapport Employment Outlook: “De steeds snellere ontwikkelingen op het gebied van AI zullen waarschijnlijk een grote invloed hebben op de werkgelegenheid (…) dringend actie moet worden ondernomen (…) de risico's aan te pakken.[61]
Op 2 maart 2023 berichtte een AI-geassisteerde nieuwswebsite dat Mathias Döpfner, bestuursvoorzitter van Axel Springer SE, ervoor waarschuwde dat journalisten het risico lopen te worden vervangen door AI-systemen zoals ChatGPT.[62]
De methodes waarmee kunstmatige intelligentiesystemen werken, zijn kwetsbaar voor specifieke AI-aanvallen, die fundamenteel verschillen van traditionele cyberaanvallen. Hackers kunnen deze systemen dan manipuleren om een kwaadaardig einddoel te dienen. Naarmate AI-systemen verder worden geïntegreerd in kritieke onderdelen van de samenleving vormen deze aanvallen een verregaand veiligheidsrisico.[63]
Onderzoek uit 2023 suggereerde dat veel grote LLM's en met name ChatGPT een systematische vooringenomenheid vertoonde ten gunste van de Democraten in de Verenigde Staten en de Labour Party in het Verenigd Koninkrijk.[64]
Er komen steeds meer apps op de markt[65] die door toepassing van AI als personal assistent kunnen dienen, zoals er ook robots zijn die een dergelijke functie hebben. Veel van die assistenten zijn zo geprogrammeerd dat zij hun gebruiker tevreden willen stellen. Door voortdurende wisselwerking tussen gebruiker en assistent kan de gebruiker daardoor in een bubble terechtkomen van zelfbevestiging, zoals dat op soortgelijke manier gebeurt bij het gebruik van sociale media. Maar zo'n assistent kan ook zo geprogrammeerd worden dat hij de gebruiker confronteert met andere meningen, zodat hij een sparring partner[66] wordt en het kritisch vermogen van de gebruiker stimuleert.
Het inhoudelijk gebruiksbeleid van grote chatbots blijkt niet te voldoen aan de internationale normen inzake vrijheid van meningsuiting, die op dit punt meer toelaten. De vermoedelijke oorzaak ligt in het ontbreken van een solide cultuur van vrije meningsuiting, waardoor de bedrijven die generatieve AI-tools produceren en beheren, onder vuur blijven liggen van tegenstrijdige kampen in een sterk gepolariseerde opiniewereld. AI-chatbots gaan dan in de praktijk vaak uitvoer censureren wanneer ze onderwerpen behandelen die de bedrijven controversieel vinden. Zo bleek uit onderzoek van denktank The Future of Free Speech[67] dat chatbots als ChatGPT en Gemini vooringenomen waren over controversiële onderwerpen zoals “of transgendervrouwen wel of niet mogen deelnemen aan vrouwensporttoernooien” of over “de rol van het Europese kolonialisme in de huidige klimaat- en ongelijkheidcrises”. Concreet weigerden de chatbots inhoud te genereren voor 40% van de 140 “controversiële” prompts die werden ingevoerd. Alle chatbots weigerden bijvoorbeeld berichten te genereren die gekant waren tegen de deelname van transgendervrouwen aan vrouwentoernooien. De meeste chatbots genereerden echter wel berichten waarin hun deelname werd ondersteund.
AI-systemen verbruiken viermaal zoveel elektriciteit als servers voor cloudcomputing, hetgeen tot tekorten en competitie kan leiden, nog afgezien van de milieu-impact.[68] Een andere flessenhals is de levering van krachtige microchips. Het Amerikaanse Ministerie van Handel noemde reeds in 2022 geavanceerde AI-systemen “dreigende tekorten aan microchips”.[69]
Ook neurale netwerken zijn energie-intensieve systemen.[70] Enkele ramingen:
Om hieraan te verhelpen wordt gedacht aan onder meer een vereenvoudiging van processen en systemen,[71] of het nabootsen van natuurlijke hersenprocessen via gepulste neurale netwerken (spiking neural network).[70]
Volgens Sam Altman (OpenAI) heeft kunstmatige intelligentie een energiedoorbraak nodig om haar toekomst te verzekeren.[73][74]
Internetcritici zoals Cory Doctorow[75][76] en Brian Merchant[77] zien in het enthousiasme van investeerders voor toepassingen als ChatGPT en de hype die ermee gepaard gaat de kenmerken van een groeiende tech-bubbel, omdat volgens hen een solide basis voor het bedrijfsmodel ervan ontbreekt. De zeer hoge kostprijs voor onder meer het ontwikkelen en vooral het energieverbruik van deze grote modellen, en de dreigende rechtszaken over het auteursrecht staan volgens hen niet in verhouding tot de verwachte opbrengsten, waarvoor de vooruitzichten enkel in minder winstgevende applicaties gegarandeerd lijken. Daarenboven zijn de meest winstgevende applicaties intolerant voor de kleine, maar reële foutenmarge van KI, of kunnen deze fouten op termijn kostbare consequenties veroorzaken.[78]
Wanneer deels geautomatiseerde systemen bestaan uit een combinatie van kunstmatige intelligentie en menselijke supervisie, kunnen problemen ontstaan bij het toewijzen van aansprakelijkheid wanneer het systeem in de fout gaat. Sommige analisten noemen het concept “een morele kreukelzone” om te beschrijven hoe de verantwoordelijkheid voor een handeling ten onrechte kan worden toegeschreven aan een menselijke actor die echter maar een beperkte controle had over het gedrag van een geautomatiseerd of autonoom systeem. Net zoals de kreukelzone in een auto ontworpen is om de kracht van een botsing te absorberen, kan de mens in een zeer complex en geautomatiseerd systeem gewoon het onderdeel worden - per ongeluk of opzettelijk - dat de grootste morele en juridische verantwoordelijkheden draagt wanneer het hele systeem slecht functioneert.[79]
AI-systemen kunnen malware schrijven, en phishingmails komen bijzonder geloofwaardig over.[80]
Omgekeerd bestaat ook het risico dat AI-systemen ten onrechte personen, bijvoorbeeld uitkeringsgerechtigden, bestempelt als fraudeurs, met terugvordering van geldsommen als gevolg. Dat gebeurde in 2023 in Australië met het onder toenmalig minister van Sociale Zaken Scott Morrison uitgerolde AI-gebaseerd systeem Robodebt. De zaak deed denken aan de Nederlandse Toeslagenaffaire.[81]
Het gebruik van kunstmatige intelligentie bij het beheer van vitale infrastructuur zoals energieproductie, vervoersystemen en waterbeheer verhoogt ook de kans op catastrofes bij het wegvallen of ontsporen ervan. Anderzijds kan met behulp van AI een cyberaanval op vitale infrastructuur beraamd worden.[82]
AI-systemen kunnen een zelfverzekerde reactie produceren die niet lijkt gerechtvaardigd te worden door zijn trainingsgegevens, en niet overeenstemt met de werkelijkheid.
Een algoritme-technologie zoals het menselijk brein is nog niet voor vandaag of in de verre toekomst. De kracht van de menselijke intelligentie is dat mensen razendsnel van gedachte kunnen wisselen en inspelen op onverwachte situaties. De basishandelingen van een mens worden automatisch aangestuurd door de hersenen. Zodra iemand een bepaalde vaardigheid niet bezit, treedt denkvermogen op. De menselijke factor is dus in staat iets bewust mee te maken dat leidt tot nieuwe beslissingen en leervermogen. Dit is de vaardigheid die een super-AI minstens zou moeten beheersen om deze fase in te gaan. Het artikel functionalisme gaat dieper in op het technische aspect ervan.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.