Joseph Weizenbaum
tysk-amerikansk matematiker og dataforsker (1923-2008) From Wikipedia, the free encyclopedia
Remove ads
Joseph Weizenbaum (1923–2008) var en tysk-amerikansk forfatter, datavitenskapsmann og professor i informatikk ved MIT. Han var en pioner innen kunstig intelligens (KI). Han er mest kjent for å ha utviklet ELIZA, en av de første chatbotene, men bidro til flere teknologiske fremskritt, inkludert utviklingen av SLIP (Symmetric List Processing), et programmeringsverktøy.[15]
Weizenbaum ble født i Berlin, Tyskland, men flyktet til USA med sin jødiske familie for å unnslippe nazistene.[16]
Weizenbaum ble i senere tid en kritiker av kunstig intelligens. Han mente at KI aldri kunne erstatte menneskelig dømmekraft og empati, og han advarte mot å gi maskiner ansvar for beslutninger som krever menneskelig forståelse. Hans bok, Computer Power and Human Reason (1976), er en viktig bok som utforsker de etiske implikasjonene av KI.[16]
Remove ads
ELIZA

Det mest kjente dataprogrammet fra 1960-tallet som man kunne «kommunisere» med var ELIZA (1966), laget av Weizenbaum. ELIZA var en maskin med tekst-display som forestilte en kvinnelig terapeut som svarer på tekst man skrev inn. Programmet søkte etter visse ord lagt inn av Weizenbaum. Spørsmålet «Why do you hate me?» inneholdt ord maskinen gjenkjente: «you...me». Som en respons ville ELIZA da svare «You like to think that I hate you – don't you?». Bytter man ut ordet hate med love eller et tulleord som «fghlrsgslierg», ville ELIZA svare det samme, bare med disse ordene istedenfor. Programmet forstod ingen av ordene, den fikk bare opp treff på ord fra en liste. Uten spesifikke treff har ulike chatboter visse «nødord» de bruker, slik som «Hva mener du?» eller lignende. Får de treff, vil de fleste programmer variere i respons, ved f.eks. å slette responsen fra listen, merke den som «brukt x ganger» eller flytte den sist på listen over responser. På denne måten kan programmene variere svarene sine og unngå mange gjentakelser, slik at programmet virker mer «pålitelig».
Weizenbaum var en av de første til å innse hvilke katastrofale virkninger slike egentlig ufarlige leketøy kan ha på folk. Han hadde selv programmert ELIZA og visste hvor enkelt og uintelligent det var, likevel fikk han kjemperespons fra personer som ønsket å prate med og få hjelp fra den maskinelle «terapeuten» hans. De som «pratet» med ELIZA, utviklet ofte personlige bånd til programmet. Weizenbaum ble sjokkert over hvor lett normale mennesker fikk vrangforestillinger og anså ELIZA som et eksisterende vesen. Det hele gikk så langt at Journal of Nervous and Menetal Disease publiserte en artikkel som hevdet at programmer som ELIZA snart kunne tas i bruk på sykehus som terapi for psykisk syke pasienter, og forhåpentlig kurere dem. Weizenbaums erfaring med ELIZA fikk han til å skifte mening om kunstig intelligens, ettersom mennesker alt for lett fanges av fenomenet og overbevises om at det er ekte. I slike tilfeller har kunstig intelligens stort skadepotensial, som terapeut eller om det får noen til å røpe hemmeligheter.
Remove ads
Referanser
Eksterne lenker
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads

