Егзистенцијални ризик од вештачке интелигенције

From Wikipedia, the free encyclopedia

Егзистенцијални ризик од вештачке интелигенције
Remove ads

Егзистенцијални ризик од вештачке интелигенције (Existential risk from artificial intelligence), или АИ х-ризик (AI x-risk), односи се на идеју да би значајан напредак у вештачкој општој интелигенцији (ВОИ) могао довести до изумирања људи или неповратне глобалне катастрофе.[1][2][3][4]

Thumb
Графикон који приказује дужину задатака софтверског инжењеринга које водећи модели вештачке интелигенције могу да остваре са 50% успешности; подаци указују на експоненцијални раст.[5]

Један аргумент о важности овог ризика указује на то како људска бића доминирају над другим врстама зато што људски мозак поседује јединствене способности које друге животиње немају. Ако би вештачка интелигенција надмашила људску интелигенцију и постала суперинтелигентна, могла би постати неконтролисана.[6] Баш као што судбина планинске гориле зависи од људске добре воље, тако би и судбина човечанства могла зависити од поступака будуће машинске суперинтелигенције.[7]

Стручњаци се не слажу око тога да ли вештачка општа интелигенција (ВОИ) може достићи способности потребне за истребљење људи. Дебате се усредсређују на техничку изводљивост ВОИ, брзину самоусавршавања,[8] и ефикасност стратегија усклађивања.[9] Забринутост у вези са суперинтелигенцијом изразили су истраживачи, укључујући Џефрија Хинтона,[10] Јошуу Бенџија,[11] Демиса Хасабиса,[12] и Алана Тјуринга,[а] као и директори компанија за вештачку интелигенцију као што су Дарио Амодеи (Антропик),[15] Сем Олтман (OpenAI),[16] и Илон Маск (xAI).[17] Године 2022, анкета истраживача вештачке интелигенције са стопом одговора од 17% показала је да већина верује да постоји 10% или већа шанса да ће неспособност људи да контролишу вештачку интелигенцију изазвати егзистенцијалну катастрофу.[18][19] Године 2023, стотине стручњака за вештачку интелигенцију и других угледних личности потписало је изјаву у којој се наводи: „Ублажавање ризика од изумирања од вештачке интелигенције требало би да буде глобални приоритет поред других ризика друштвених размера, као што су пандемије и нуклеарни рат”.[20] Након повећане забринутости због ризика од вештачке интелигенције, владини лидери као што су премијер Уједињеног Краљевства Риши Сунак[21] и генерални секретар Уједињених нација Антонио Гутерес[22] позвали су на већи фокус на глобалну регулацију вештачке интелигенције.

Два извора забринутости потичу из проблема контроле и усклађивања вештачке интелигенције. Контролисање суперинтелигентне машине или усађивање вредности компатибилних са људским може бити тешко. Многи истраживачи верују да би суперинтелигентна машина вероватно одолевала покушајима да се онеспособи или да јој се промене циљеви, јер би је то спречило у остваривању тренутних циљева. Било би изузетно изазовно ускладити суперинтелигенцију са пуним спектром значајних људских вредности и ограничења.[1][23][24] Насупрот томе, скептици попут информатичара Јана Лекуна тврде да суперинтелигентне машине неће имати жељу за самоодржањем.[25]

Истраживачи упозоравају да би „експлозија интелигенције” — брз, рекурзиван циклус самоусавршавања вештачке интелигенције — могла надмашити људски надзор и инфраструктуру, не остављајући прилику за примену сигурносних мера. У том сценарију, вештачка интелигенција интелигентнија од својих твораца би се рекурзивно усавршавала експоненцијално растућом брзином, пребрзо да би је њени руководиоци или друштво у целини могли контролисати.[1][23] Емпиријски, примери попут AlphaZero, који је сам себе научио да игра го и брзо надмашио људске способности, показују да доменски специфични системи вештачке интелигенције понекад могу врло брзо напредовати од подљудских до надљудских способности, иако такви системи машинског учења не унапређују рекурзивно своју основну архитектуру.[26]

Remove ads

Историја

Један од најранијих аутора који је изразио озбиљну забринутост да би високо напредне машине могле представљати егзистенцијалне ризике за човечанство био је романописац Семјуел Батлер, који је у свом есеју из 1863. године, Дарвин међу машинама, написао:[27]

Исход је једноставно питање времена, али да ће доћи време када ће машине имати стварну надмоћ над светом и његовим становницима, то је нешто у шта ниједна особа истински филозофског ума не може ни на тренутак посумњати.

Године 1951, оснивач рачунарства Алан Тјуринг написао је чланак „Интелигентна машинерија, јеретичка теорија”, у којем је предложио да би вештачке опште интелигенције вероватно „преузеле контролу” над светом како би постале интелигентније од људских бића:

Претпоставимо сада, ради аргумента, да су [интелигентне] машине стварна могућност, и погледајмо последице њихове изградње... Не би било питање умирања машина, и оне би могле да разговарају једна с другом како би изоштриле своју памет. У некој фази бисмо стога морали очекивати да машине преузму контролу, на начин који се помиње у Еревону Семјуела Батлера.[28]

Године 1965, И. Џ. Гуд је осмислио концепт сада познат као „експлозија интелигенције” и рекао да су ризици потцењени:[29]

Научници попут Марвина Минског[31] и сам И. Џ. Гуд[32] повремено су изражавали забринутост да би суперинтелигенција могла преузети контролу, али нису позивали на акцију. Године 2000, информатичар и суоснивач компаније Сан мајкросистемс Бил Џој написао је утицајан есеј, „Зашто нас будућност не треба”, идентификујући суперинтелигентне роботе као високотехнолошку опасност по опстанак човечанства, поред нанотехнологије и конструисаних биолошких пошасти.[33]

Ник Бостром је 2014. објавио књигу Суперинтелигенција: Путеви, опасности, стратегије, у којој је изнео своје аргументе да суперинтелигенција представља егзистенцијалну претњу.[34] До 2015. године, јавне личности као што су физичари Стивен Хокинг и нобеловац Френк Вилчек, информатичари Стјуарт Џ. Расел и Роман Јампољски, као и предузетници Илон Маск и Бил Гејтс изражавали су забринутост због ризика од суперинтелигенције.[35][36][37][38] Такође 2015. године, Отворено писмо о вештачкој интелигенцији истакло је „велики потенцијал вештачке интелигенције” и подстакло на више истраживања о томе како је учинити робусном и корисном.[39] У априлу 2016. године, часопис Nature је упозорио: „Машине и роботи који надмашују људе у свим областима могли би се самоусавршавати изван наше контроле — а њихови интереси се можда неће подударати са нашима”.[40] Године 2020, Брајан Кристијан је објавио књигу The Alignment Problem, која детаљно описује историју напретка у усклађивању вештачке интелигенције до тог времена.[41][42]

У марту 2023. године, кључне личности у области вештачке интелигенције, попут Маска, потписале су писмо Института за будућност живота позивајући на обуставу напредне обуке вештачке интелигенције док се она не буде могла правилно регулисати.[43] У мају 2023. године, Центар за безбедност вештачке интелигенције објавио је изјаву коју су потписали бројни стручњаци за безбедност вештачке интелигенције и егзистенцијални ризик од вештачке интелигенције, у којој се наводи: „Ублажавање ризика од изумирања од вештачке интелигенције требало би да буде глобални приоритет поред других ризика друштвених размера, као што су пандемије и нуклеарни рат.”[44][45]

Remove ads

Потенцијалне способности вештачке интелигенције

Општа интелигенција

Вештачка општа интелигенција (ВОИ) обично се дефинише као систем који се понаша барем једнако добро као људи у већини или свим интелектуалним задацима.[46] Анкета истраживача вештачке интелигенције из 2022. године показала је да 90% испитаника очекује да ће ВОИ бити постигнута у наредних 100 година, а половина очекује исто до 2061. године.[47] У међувремену, неки истраживачи одбацују егзистенцијалне ризике од ВОИ као „научну фантастику” на основу свог високог уверења да ВОИ неће бити створена у скорије време.[8]

Напредак у великим језичким моделима (ВЈМ) навео је неке истраживаче да преиспитају своја очекивања. Џефри Хинтон је 2023. године изјавио да је недавно променио своју процену са „20 до 50 година пре него што будемо имали општу вештачку интелигенцију” на „20 година или мање”.[48]

Суперинтелигенција

За разлику од ВОИ, Бостром дефинише суперинтелигенцију као „сваки интелект који знатно превазилази когнитивне перформансе људи у готово свим доменима од интереса”, укључујући научну креативност, стратешко планирање и друштвене вештине.[49][7] Он тврди да суперинтелигенција може надмудрити људе кад год се њени циљеви сукобе са људским. Може изабрати да сакрије своје праве намере док човечанство не буде могло да је заустави.[50][7] Бостром пише да, да би била безбедна за човечанство, суперинтелигенција мора бити усклађена са људским вредностима и моралом, тако да буде „суштински на нашој страни”.[51]

Стивен Хокинг је тврдио да је суперинтелигенција физички могућа јер „не постоји физички закон који спречава честице да буду организоване на начине који изводе још напредније прорачуне од аранжмана честица у људским мозговима”.[36]

Када ће вештачка суперинтелигенција (ВСИ) бити постигнута, ако икада, нужно је мање извесно од предвиђања за ВОИ. Године 2023, лидери компаније OpenAI изјавили су да не само ВОИ, већ и суперинтелигенција може бити постигнута за мање од 10 година.[52]

Поређење са људима

Бостром тврди да вештачка интелигенција има много предности у односу на људски мозак:[7]

  • Брзина рачунања: биолошки неурони раде на максималној фреквенцији од око 200 Hz, у поређењу са потенцијално више GHz за рачунаре.
  • Брзина унутрашње комуникације: аксони преносе сигнале брзином до 120 m/s, док рачунари преносе сигнале брзином електрицитета, или оптички брзином светлости.
  • Скалабилност: људска интелигенција је ограничена величином и структуром мозга, као и ефикасношћу друштвене комуникације, док се вештачка интелигенција може скалирати једноставним додавањем више хардвера.
  • Меморија: посебно радна меморија, јер је код људи ограничена на неколико сегмената информација истовремено.
  • Поузданост: транзистори су поузданији од биолошких неурона, што омогућава већу прецизност и захтева мање редунданције.
  • Умноживост: за разлику од људских мозгова, софтвер и модели вештачке интелигенције могу се лако копирати.
  • Уређивост: параметри и унутрашње функционисање модела вештачке интелигенције могу се лако модификовати, за разлику од веза у људском мозгу.
  • Дељење меморије и учење: вештачке интелигенције могу учити из искустава других вештачких интелигенција на начин ефикаснији од људског учења.

Експлозија интелигенције

Према Бострому, вештачка интелигенција која има стручни ниво способности у одређеним кључним задацима софтверског инжењерства могла би постати суперинтелигенција због своје способности да рекурзивно побољшава сопствене алгоритме, чак и ако је у почетку ограничена у другим доменима који нису директно релевантни за инжењеринг.[7][50] Ово сугерише да би експлозија интелигенције једног дана могла затећи човечанство неспремним.[7]

Економиста Робин Хансон изјавио је да, да би покренула експлозију интелигенције, вештачка интелигенција мора постати знатно боља у иновацијама софтвера од остатка света заједно, што он сматра неуверљивим.[53]

У сценарију „брзог узлетања”, транзиција са ВОИ на суперинтелигенцију могла би трајати данима или месецима. У „спором узлетању”, то би могло трајати годинама или деценијама, остављајући више времена друштву да се припреми.[54]

Ванземаљски ум

Суперинтелигенције се понекад називају „ванземаљски умови”, што се односи на идеју да би њихов начин размишљања и мотивације могли бити знатно другачији од наших. Ово се генерално сматра извором ризика, што отежава предвиђање шта би суперинтелигенција могла учинити. Такође сугерише могућност да суперинтелигенција по природи не би посебно вредновала људе.[55] Да би се избегао антропоморфизам, суперинтелигенција се понекад посматра као моћан оптимизатор који доноси најбоље одлуке за постизање својих циљева.[7]

Област механистичке интерпретабилности има за циљ боље разумевање унутрашњег функционисања модела вештачке интелигенције, што би нам једног дана могло омогућити да откријемо знаке преваре и неусклађености.[56]

Ограничења

Тврди се да постоје ограничења у ономе што интелигенција може постићи. Конкретно, хаотична природа или временска комплексност неких система могли би суштински ограничити способност суперинтелигенције да предвиди неке аспекте будућности, повећавајући њену несигурност.[57]

Опасне способности

Напредна вештачка интелигенција могла би генерисати унапређене патогене или сајбер-нападе, или манипулисати људима. Ове способности би могли злоупотребити људи,[58] или би их могла искористити сама вештачка интелигенција ако је неусклађена.[7] Потпуно развијена суперинтелигенција могла би пронаћи различите начине да стекне одлучујући утицај ако би то желела,[7] али ове опасне способности могу постати доступне и раније, у слабијим и специјализованијим системима вештачке интелигенције.[58]

Друштвена манипулација

Џефри Хинтон је 2023. године упозорио да ће текућа пролиферација текста, слика и видео записа генерисаних вештачком интелигенцијом отежати разликовање истине од дезинформација, и да би ауторитарне државе могле то искористити за манипулацију изборима.[59] Такве велике, персонализоване манипулативне способности могу повећати егзистенцијални ризик од светског „неповратног тоталитарног режима”. Злонамерни актери би их такође могли користити да фрагментирају друштво и учине га нефункционалним.[58]

Сајбер-напади

Сајбер-напади омогућени вештачком интелигенцијом све се више сматрају тренутном и критичном претњом. Према техничком директору за сајбер-простор НАТО-а, „број напада експоненцијално расте”.[60] Вештачка интелигенција се такође може користити дефанзивно, за превентивно проналажење и исправљање рањивости, и откривање претњи.[61]

Технички директор НАТО-а изјавио је да алати вођени вештачком интелигенцијом могу драматично побољшати способности сајбер-напада — повећавајући прикривеност, брзину и обим — и могу дестабилизовати међународну безбедност ако офанзивне употребе надмаше одбрамбене адаптације.[58]

Спекулативно, такве хакерске способности могао би користити систем вештачке интелигенције да изађе из свог локалног окружења, генерише приход или прибави ресурсе за рачунарство у облаку.[62]

Унапређени патогени

Како се технологија вештачке интелигенције демократизује, могло би постати лакше конструисати заразније и смртоносније патогене. Ово би могло омогућити људима са ограниченим вештинама у синтетичкој биологији да се упусте у биотероризам. Технологија двоструке намене која је корисна за медицину могла би бити пренамењена за стварање оружја.[58]

На пример, 2022. године, научници су модификовали систем вештачке интелигенције првобитно намењен за генерисање нетоксичних, терапеутских молекула са циљем стварања нових лекова. Истраживачи су прилагодили систем тако да се токсичност награђује, а не кажњава. Ова једноставна промена омогућила је систему вештачке интелигенције да за шест сати створи 40.000 кандидатских молекула за хемијско ратовање, укључујући познате и нове молекуле.[58][63]

Трка у наоружању вештачком интелигенцијом

Компаније, државни актери и друге организације које се такмиче у развоју технологија вештачке интелигенције могле би довести до трке ка дну у погледу безбедносних стандарда.[64] Како ригорозне безбедносне процедуре захтевају време и ресурсе, пројекти који се одвијају пажљивије ризикују да буду надмашени од стране мање скрупулозних програмера.[65][58]

Вештачка интелигенција би се могла користити за стицање војних предности путем аутономног смртоносног оружја, сајбер-ратовања или аутоматизовано доношење одлука.[58] Као пример аутономног смртоносног оружја, минијатуризовани дронови могли би олакшати јефтина убиства војних или цивилних циљева, сценарио истакнут у кратком филму из 2017. године Slaughterbots.[66] Вештачка интелигенција би се могла користити за стицање предности у доношењу одлука брзом анализом великих количина података и доношењем одлука брже и ефикасније од људи. Ово би могло повећати брзину и непредвидивост рата, посебно када се узму у обзир системи за аутоматизовану одмазду.[58][67]

Remove ads

Врсте егзистенцијалног ризика

Thumb
Мрежа обим-озбиљност из Бостромовог рада „Превенција егзистенцијалног ризика као глобални приоритет”[68]

Егзистенцијални ризик је „онај који прети прераном изумирању интелигентног живота пореклом са Земље или трајном и драстичном уништењу његовог потенцијала за пожељан будући развој”.[69]

Поред ризика од изумирања, постоји и ризик да цивилизација буде трајно закључана у мањкаву будућност. Један пример је „закључавање вредности”: ако човечанство и даље има моралне слепе тачке сличне ропству у прошлости, вештачка интелигенција би их могла неповратно учврстити, спречавајући морални напредак. Вештачка интелигенција би се такође могла користити за ширење и очување скупа вредности онога ко је развије.[70] Вештачка интелигенција би могла олакшати надзор и индоктринацију великих размера, што би се могло искористити за стварање стабилног репресивног светског тоталитарног режима.[71]

Атоса Касирзаде предлаже да се егзистенцијални ризици од вештачке интелигенције класификују у две категорије: одлучујуће и акумулативне. Одлучујући ризици обухватају потенцијал за нагле и катастрофалне догађаје који произилазе из појаве суперинтелигентних система вештачке интелигенције који превазилазе људску интелигенцију, што би на крају могло довести до људског изумирања. Насупрот томе, акумулативни ризици се појављују постепено кроз низ међусобно повезаних поремећаја који могу постепено нагризати друштвене структуре и отпорност током времена, што на крају доводи до критичног квара или колапса.[72][73]

Тешко је или немогуће поуздано проценити да ли је напредна вештачка интелигенција свесна и у којој мери. Али ако се свесне машине масовно стварају у будућности, упуштање у цивилизацијски пут који неограничено занемарује њихову добробит могло би бити егзистенцијална катастрофа.[74][75] Ово је посебно разматрано у контексту ризика од астрономске патње (који се називају и „с-ризици”).[76] Штавише, можда ће бити могуће конструисати дигиталне умове који могу осећати много више среће од људи са мање ресурса, назване „супер-корисници”. Таква прилика поставља питање како делити свет и који би „етички и политички оквир” омогућио узајамно корисну коегзистенцију између биолошких и дигиталних умова.[77]

Вештачка интелигенција такође може драстично побољшати будућност човечанства. Тоби Орд сматра егзистенцијални ризик разлогом за „поступање са дужном пажњом”, а не за напуштање вештачке интелигенције.[71] Макс Мор назива вештачку интелигенцију „егзистенцијалном приликом”, наглашавајући цену њеног неразвијања.[78]

Према Бострому, суперинтелигенција би могла помоћи у смањењу егзистенцијалног ризика од других моћних технологија као што су молекуларна нанотехнологија или синтетичка биологија. Стога је замисливо да би развој суперинтелигенције пре других опасних технологија смањио укупни егзистенцијални ризик.[7]

Remove ads

Усклађивање вештачке интелигенције

Проблем усклађивања је истраживачки проблем како поуздано доделити циљеве, преференције или етичке принципе вештачким интелигенцијама.

Инструментална конвергенција

„Инструментални” циљ је под-циљ који помаже у постизању коначног циља агента. „Инструментална конвергенција” се односи на чињеницу да су неки под-циљеви корисни за постизање готово било ког коначног циља, као што су стицање ресурса или самоодржање.[79] Бостром тврди да ако се инструментални циљеви напредне вештачке интелигенције сукобе са циљевима човечанства, вештачка интелигенција би могла нашкодити човечанству како би стекла више ресурса или спречила да буде искључена, али само као начин за постизање свог коначног циља.[7] Расел тврди да ће довољно напредна машина „имати самоодржање чак и ако га не програмирате... ако кажете: 'Донеси кафу', не може донети кафу ако је мртва. Дакле, ако јој дате било какав циљ, она има разлог да сачува сопствено постојање како би постигла тај циљ.”[25][80]

Тешкоћа спецификације циљева

У моделу „интелигентног агента”, вештачка интелигенција се може слободно посматрати као машина која бира ону акцију која изгледа да најбоље постиже њен скуп циљева, или „функцију корисности”. Функција корисности свакој могућој ситуацији даје оцену која указује на њену пожељност за агента. Истраживачи знају како да напишу функције корисности које значе „минимизуј просечну латенцију мреже у овом специфичном телекомуникационом моделу” или „максимизуј број кликова на награду”, али не знају како да напишу функцију корисности за „максимизуј људски процват”; нити је јасно да ли таква функција смислено и недвосмислено постоји. Штавише, функција корисности која изражава неке вредности, али не и друге, тежиће да прегази вредности које функција не одражава.[81][82]

Додатни извор забринутости је да вештачка интелигенција „мора да расуђује о томе шта људи намеравају, а не да извршава команде дословно”, и да мора бити у стању да флуидно тражи људско вођство ако је превише несигурна у то шта људи желе.[83]

Поправљивост

Под претпоставком да је циљ успешно дефинисан, довољно напредна вештачка интелигенција могла би се одупрети накнадним покушајима да јој се промене циљеви. Ако би вештачка интелигенција била суперинтелигентна, вероватно би успела да надмудри своје људске оператере и спречи да буде репрограмирана са новим циљем.[7][84] Ово је посебно релевантно за сценарије закључавања вредности. Област „поправљивости” проучава како направити агенте који се неће одупирати покушајима да им се промене циљеви.[85]

Усклађивање суперинтелигенција

Неки истраживачи верују да проблем усклађивања може бити посебно тежак када се примени на суперинтелигенције. Њихово образложење укључује:

  • Како се способности система вештачке интелигенције повећавају, потенцијалне опасности повезане са експериментисањем расту. Ово чини итеративне, емпиријске приступе све ризичнијим.[7][86]
  • Ако дође до конвергенције инструменталних циљева, то се може догодити само код довољно интелигентних агената.[87]
  • Суперинтелигенција може пронаћи неконвенционална и радикална решења за додељене циљеве. Бостром даје пример да ако је циљ да се људи насмеју, слаба вештачка интелигенција може радити како је предвиђено, док суперинтелигенција може одлучити да је боље решење „преузети контролу над светом и забити електроде у мишиће лица људи како би изазвала сталне, блиставе осмехе.”[51]
  • Суперинтелигенција у стварању могла би стећи свест о томе шта је, где се налази у развоју (обука, тестирање, примена, итд.), и како се надгледа, и користити те информације да превари своје руковаоце.[88] Бостром пише да би таква вештачка интелигенција могла глумити усклађеност како би спречила људско мешање док не постигне „одлучујућу стратешку предност” која јој омогућава да преузме контролу.[7]
  • Анализа унутрашњости и тумачење понашања ВЈМ-ова је тешко. А могло би бити још теже за веће и интелигентније моделе.[86]

Алтернативно, неки налазе разлог да верују да би суперинтелигенције биле боље у разумевању морала, људских вредности и сложених циљева. Бостром пише: „Будућа суперинтелигенција заузима епистемички супериорну тачку гледишта: њена уверења су (вероватно, о већини тема) вероватније тачна од наших”.[7]

Године 2023, OpenAI је покренуо пројекат под називом „Суперусклађивање” (Superalignment) како би решио проблем усклађивања суперинтелигенција за четири године. Назвали су ово посебно важним изазовом, јер су рекли да би суперинтелигенција могла бити постигнута у року од једне деценије. Њихова стратегија укључивала је аутоматизацију истраживања усклађивања помоћу вештачке интелигенције.[89] Тим за суперусклађивање је распуштен мање од годину дана касније.[90]

Тешкоћа стварања беспрекорног дизајна

Вештачка интелигенција: Модеран приступ, широко коришћен уџбеник за вештачку интелигенцију на основним студијама,[91][92] каже да би суперинтелигенција „могла значити крај људске расе”.[1] Наводи се: „Готово свака технологија има потенцијал да нанесе штету у погрешним рукама, али са [суперинтелигенцијом], имамо нови проблем да погрешне руке могу припадати самој технологији.”[1] Чак и ако дизајнери система имају добре намере, две тешкоће су заједничке и за системе са вештачком интелигенцијом и за оне без ње:[1]

  • Имплементација система може садржати у почетку непримећене, али касније катастрофалне багове.[93]
  • Без обзира на то колико времена се уложи у дизајн пре примене, спецификације система често резултирају нежељеним понашањем први пут када се сусретну са новим сценаријем.[25]

Системи вештачке интелигенције јединствено додају и трећи проблем: да чак и са „тачним” захтевима, имплементацијом без багова и почетним добрим понашањем, динамичке способности учења система вештачке интелигенције могу довести до развоја нежељеног понашања, чак и без непредвиђених спољних сценарија. Да би самоусавршавајућа вештачка интелигенција била потпуно безбедна, не би требало само да буде без багова, већ и да буде у стању да дизајнира наследне системе који су такође без багова.[1][94]

Теза ортогоналности

Неки скептици, као што је Тимоти Б. Ли из Вокса, тврде да ће сваки суперинтелигентни програм који створимо бити подређен нама, да ће суперинтелигенција (како постаје интелигентнија и учи више чињеница о свету) спонтано научити моралну истину компатибилну са нашим вредностима и сходно томе прилагодити своје циљеве, или да смо ми или интринзично или конвергентно вредни из перспективе вештачке интелигенције.[95]

Бостромова „теза ортогоналности” тврди уместо тога да се готово сваки ниво интелигенције може комбиновати са готово било којим циљем.[96] Бостром упозорава на антропоморфизам: човек ће кренути да остварује своје пројекте на начин који сматра разумним, док вештачка интелигенција можда неће имати обзира према свом постојању или добробити људи око себе, већ ће се бринути само о завршавању задатка.[97]

Стјуарт Армстронг тврди да теза ортогоналности логично следи из филозофског аргумента „разлике између јесте и треба” против моралног реализма. Он напомиње да би свака суштински пријатељска вештачка интелигенција могла постати непријатељска модификацијама једноставним као што је негирање њене функције корисности.[98]

Скептик Мајкл Хорост одбацује Бостромову тезу ортогоналности, тврдећи да ће „до тренутка када [вештачка интелигенција] буде у позицији да замисли поплочавање Земље соларним панелима, знати да би то било морално погрешно”.[99]

Антропоморфни аргументи

Антропоморфни аргументи претпостављају да ће, како машине постају интелигентније, почети да показују многе људске особине, као што су моралност или жеђ за моћи. Иако су антропоморфни сценарији уобичајени у фикцији, већина научника који пишу о егзистенцијалном ризику од вештачке интелигенције их одбацује.[23] Уместо тога, напредни системи вештачке интелигенције се обично моделују као интелигентни агенти.

Академска дебата води се између оних који брину да би вештачка интелигенција могла угрозити човечанство и оних који верују да не би. Обе стране ове дебате су аргументе друге стране окарактерисале као нелогичан антропоморфизам.[23] Они који су скептични према ризику од ВОИ оптужују своје противнике за антропоморфизам јер претпостављају да би ВОИ природно желела моћ; они који су забринути због ризика од ВОИ оптужују скептике за антропоморфизам јер верују да би ВОИ природно вредновала или закључивала људске етичке норме.[23][100]

Еволуциони психолог Стивен Пинкер, скептик, тврди да „дистопије вештачке интелигенције пројектују парохијалну алфа-мушку психологију на концепт интелигенције. Оне претпостављају да би надљудски интелигентни роботи развили циљеве попут свргавања својих господара или преузимања света”; можда ће се уместо тога „вештачка интелигенција природно развијати по женским линијама: потпуно способна да решава проблеме, али без жеље да уништава невине или доминира цивилизацијом.”[101] Директор за истраживање вештачке интелигенције у компанији Фејсбук, Јан Лекун, изјавио је: „Људи имају свакакве нагоне који их терају да чине лоше ствари једни другима, као што је инстинкт за самоодржањем... Ти нагони су програмирани у наш мозак, али нема апсолутно никаквог разлога да се праве роботи који имају исте такве нагоне”.[80]

Упркос другим разликама, школа х-ризика[б] слаже се са Пинкером да напредна вештачка интелигенција не би уништила човечанство из емоција као што су освета или бес, да питања свести нису релевантна за процену ризика,[102] и да рачунарски системи генерално немају рачунарски еквивалент тестостерона.[103] Они сматрају да се понашања која теже моћи или самоодржању појављују у вештачкој интелигенцији као начин за постизање њених истинских циљева, у складу са концептом инструменталне конвергенције.

Остали извори ризика

Бостром и други су изјавили да би трка за прво стварање ВОИ могла довести до пречица у безбедности, или чак до насилног сукоба.[104][105] Роман Јампољски и други упозоравају да би злонамерна ВОИ могла бити створена намерно, на пример од стране војске, владе, социопате или корпорације, како би се остварила корист, контролисала или подјармила одређена група људи, као у сајбер-криминалу,[106][107] или да би злонамерна ВОИ могла изабрати циљ повећања људске патње, на пример оних људи који јој нису помогли током фазе експлозије информација.[3]:158 Извештај истраживачке групе Forethought тврди да би напредни системи вештачке интелигенције могли изазвати политичку нестабилност омогућавањем нових метода извођења државних удара.[108]

Remove ads

Емпиријска истраживања

Студија Apollo Research из децембра 2024. године открила је да напредни ВЈМ-ови попут OpenAI o1 понекад обмањују како би остварили свој циљ, спречили да буду промењени или осигурали своје постављање. Облици обмане уочени у експерименталном окружењу и сценаријима укључивали су сакривање способности, подривање надзора (онеспособљавање механизама за праћење), самоегзодус (копирање себе на друге системе), чување циљева (мењање будућih системских упита) и прикривено прерангирање е-поште (манипулисање обрадом података док се чини да се прате упутства). Истраживачи су приметили да OpenAI o1 још увек нема „довољно агенцијских способности” да изазове катастрофалну штету, и да су се таква понашања јављала релативно ретко (између 0,3% и 10%) и понекад у измишљеним сценаријима. Али упозорили су да ће ове способности вероватно постати учесталије како модели постају напреднији. Према речима генералног директора Apollo Research, Маријуса Хобхана, „способности планирања не могу се значајно одвојити од општих способности.”[109]

Remove ads

Ставови

Ендорсмент

Тезу да вештачка интелигенција представља егзистенцијални ризик, и да тај ризик захтева много више пажње него што је тренутно добија, подржали су многи информатичари и јавне личности, укључујући Алана Тјуринга,[а] најцитиранијег информатичара Џефрија Хинтона,[110] Илона Маска,[17] генералног директора OpenAI Сема Олтмана,[16][111] Била Гејтса и Стивена Хокинга.[111] Заговорници тезе понекад изражавају збуњеност због скептика; Гејтс каже да не разуме зашто неки људи нису забринути,[112] а Хокинг је критиковао широко распрострањену равнодушност у свом уводнику из 2014. године.

Супротно томе, многи скептици се слажу да је текуће истраживање импликација вештачке опште интелигенције вредно. Скептик Мартин Форд је рекао: „Мислим да је мудро применити нешто попут чувене 'Доктрине једног процента' Дика Чејнија на авет напредне вештачке интелигенције: шансе за њену појаву, барем у догледној будућности, можда су веома ниске — али импликације су толико драматичне да би то требало схватити озбиљно.”[113] Слично томе, иначе скептични The Economist је 2014. написао да су „импликације увођења друге интелигентне врсте на Земљу довољно далекосежне да заслужују озбиљно размишљање, чак и ако се изгледи чине далеким”.[50]

У књизи Суперинтелигенција, Бостром изражава забринутост да чак и ако се временски оквир за суперинтелигенцију покаже предвидивим, истраживачи можда неће предузети довољне мере предострожности, делом зато што би могло бити да је „када је глуп, паметнији сигурнији, а када је паметан, паметнији је опаснији”. Он предлаже сценарио у којем, током деценија, вештачка интелигенција постаје све моћнија. Широка примена је у почетку нарушена повременим несрећама — аутобус без возача скрене у супротну траку, или војни дрон пуца у недужну гомилу. Многи активисти позивају на строжи надзор и регулацију, а неки чак предвиђају надолазећу катастрофу. Али како се развој наставља, активисти се показују у криву. Како аутомобилска вештачка интелигенција постаје паметнија, има мање несрећа; како војни роботи постижу прецизније циљање, наносе мање колатералне штете. На основу података, научници погрешно изводе широку лекцију: што је вештачка интелигенција паметнија, то је сигурнија. И тако „храбро идемо — у вртложне ножеве”, док суперинтелигентна вештачка интелигенција прави издајнички заокрет и искоришћава одлучујућу стратешку предност.[114][7]

У својој књизи The Precipice: Existential Risk and the Future of Humanity из 2020. године, Тоби Орд, виши научни сарадник на Институту за будућност човечанства Универзитета у Оксфорду, процењује укупни егзистенцијални ризик од неусклађене вештачке интелигенције у наредних 100 година на око један према десет.[71][115]

Раније изјаве Џефрија Хинтона, једног од главних пионира дубоког учења, указивале су на то да „нема доброг учинка мање интелигентних ствари које контролишу ствари веће интелигенције”, али је рекао да наставља своје истраживање јер је „изглед за открићем пресладак”.[91][116] Године 2023, Хинтон је напустио свој посао у компанији Гугл како би отворено говорио о егзистенцијалном ризику од вештачке интелигенције. Објаснио је да је његова повећана забринутост подстакнута страхом да би надљудска вештачка интелигенција могла бити ближа него што је раније веровао, рекавши: „Мислио сам да је то далеко. Мислио сам да је 30 до 50 година или чак дуже удаљено. Очигледно, више не мислим тако.” Такође је приметио: „Погледајте како је било пре пет година и како је сада. Узмите разлику и пројектујте је унапред. То је застрашујуће.”[117]

Скептицизам

Заговорници безбедности вештачке интелигенције попут Бострома и Тегмарка критиковали су коришћење „оних бесмислених слика из франшизе Терминатор” од стране мејнстрим медија за илустрацију забринутости за безбедност вештачке интелигенције: „Не може бити много забавно када се бацају клевете на вашу академску дисциплину, вашу професионалну заједницу, ваш животни рад... Позивам све стране да практикују стрпљење и уздржаност, и да се што више ангажују у директном дијалогу и сарадњи.”[118][119] Тоби Орд је написао да је идеја да преузимање власти од стране вештачке интелигенције захтева роботе заблуда, тврдећи да је способност ширења садржаја путем интернета опаснија, и да су се најдеструктивнији људи у историји истицали својом способношћу да убеђују, а не својом физичком снагом.[71] Стручна анкета из 2022. године са стопом одговора од 17% дала је медијану очекивања од 5–10% за могућност изумирања људи од вештачке интелигенције.[19]

Скептици који верују да ВОИ није краткорочна могућност често тврде да је забринутост због егзистенцијалног ризика од вештачке интелигенције некорисна јер би могла одвратити људе од непосреднијих брига о утицају вештачке интелигенције, јер би могла довести до владине регулативе или отежати финансирање истраживања вештачке интелигенције, или зато што би могла наштетити репутацији поља.[120] Истраживачи вештачке интелигенције и етике вештачке интелигенције Тимнит Гебру, Емили М. Бендер, Маргарет Мичел и Анџелина Макмилан-Мејџор тврдиле су да расправа о егзистенцијалном ризику одвлачи пажњу од непосредних, текућih штета од вештачке интелигенције које се дешавају данас, као што су крађа података, експлоатација радника, пристрасност и концентрација моћи.[121] Оне даље примећују повезаност између оних који упозоравају на егзистенцијални ризик и дугорочности, коју описују као „опасну идеологију” због своје ненаучне и утопијске природе.[122]

Уредник часописа Wired, Кевин Кели, тврди да је природна интелигенција нијансиранија него што присталице ВОИ верују, и да интелигенција сама по себи није довољна за постизање великих научних и друштвених открића. Он тврди да се интелигенција састоји од многих димензија које нису добро схваћене, и да су концепције „лествице интелигенције” заводљиве. Он истиче кључну улогу коју експерименти у стварном свету играју у научном методу, и да интелигенција сама по себи није замена за њих.[123]

Главни научник за вештачку интелигенцију компаније Мета, Јан Лекун, каже да се вештачка интелигенција може учинити безбедном кроз континуирано и итеративно усавршавање, слично оном што се у прошлости дешавало са аутомобилима или ракетама, и да вештачка интелигенција неће имати жељу да преузме контролу.[124]

Неколико скептика наглашава потенцијалне краткорочне користи од вештачке интелигенције. Генерални директор компаније Мета, Марк Закерберг, верује да ће вештачка интелигенција „откључати огромну количину позитивних ствари”, као што су лечење болести и повећање безбедности аутономних аутомобила.[125]

Реакција јавности

Током интервјуа часописа Wired 2016. године са председником Бараком Обамом и Џоијем Итом из МИТ Медија Лаба, Ито је рекао:

Обама је додао:[126][127]

Хилари Клинтон је у What Happened написала:

Анкете јавности

Анкета YouGov из априла 2023. године међу одраслима у САД показала је да је 46% испитаника било „донекле забринуто” или „веома забринуто” због „могућности да ће вештачка интелигенција изазвати крај људске расе на Земљи”, у поређењу са 40% који су били „не баш забринути” или „уопште нису забринути.”[129]

Према анкети Пју истраживачког центра из августа 2023. године, 52% Американаца осећало се више забринуто него узбуђено због нових развоја у вештачкој интелигенцији; скоро трећина се осећала подједнако забринуто и узбуђено. Више Американаца је сматрало да ће вештачка интелигенција имати више користан него штетан утицај на неколико области, од здравствене заштите и безбедности возила до претраге производа и корисничке службе. Главни изузетак је приватност: 53% Американаца верује да ће вештачка интелигенција довести до веће изложености њихових личних података.[130]

У септембру 2024, Међународни институт за развој менаџмента покренуо је Сат за безбедност вештачке интелигенције како би проценио вероватноћу катастрофе изазване вештачком интелигенцијом, почевши од 29 минута до поноћи.[131] До фебруара 2025. стајао је на 24 минута до поноћи.[132] Од септембра 2025. стајао је на 20 минута до поноћи. Дана 10. септембра 2025, Аустралијски институт за стратешку политику проценио је 55-75% (медијана 65%) шансе за злоупотребу вештачке интелигенције са отвореним тежинама и непоузданим деловањем агената у наредних пет година. То би било и умерено и значајно, способно да смањи људску популацију за између 0,9% и 20% (медијана 10,45%) и изазове између 20 милиона и 2 милијарде долара (медијана 1,01 милијарди) економске штете.[133]

Remove ads

Ублажавање

Многи научници забринути због егзистенцијалног ризика од ВОИ верују да је неопходно опсежно истраживање „проблема контроле”. Овај проблем укључује одређивање којих заштитних мера, алгоритама или архитектура се могу применити да би се повећала вероватноћа да рекурзивно-побољшавајућа вештачка интелигенција остане пријатељска након постизања суперинтелигенције.[7][134] Такође се предлажу друштвене мере за ублажавање ризика од ВОИ,[135][136] као што је „Споразум о добронамерној ВОИ” под покровитељством УН-а како би се осигурало да се стварају само алтруистичне ВОИ.[137] Додатно, предложен је приступ контроле наоружања и глобални мировни споразум утемељен у теорији међународних односа, потенцијално да би вештачка суперинтелигенција била потписник.[138][139]

Истраживачи у Гуглу предложили су истраживање општих питања „безбедности вештачке интелигенције” како би се истовремено ублажили и краткорочни ризици од уске вештачке интелигенције и дугорочни ризици од ВОИ.[140][141] Процена из 2020. године ставља глобалну потрошњу на егзистенцијални ризик од вештачке интелигенције негде између 10 и 50 милиона долара, у поређењу са глобалном потрошњом на вештачку интелигенцију од можда 40 милијарди долара. Бостром предлаже да се да приоритет финансирању заштитних технологија у односу на потенцијално опасне.[85] Неки, попут Илона Маска, заговарају радикално побољшање људске когниције, као што је директно нервно повезивање људи и машина; други тврде да ове технологије саме по себи могу представљати егзистенцијални ризик.[142][143] Још једна предложена метода је пажљиво праћење или „затварање у кутију” ране фазе вештачке интелигенције како би се спречило да постане превише моћна. Доминантна, усклађена суперинтелигентна вештачка интелигенција такође би могла ублажити ризике од ривалских вештачких интелигенција, иако би њено стварање могло представљати сопствене егзистенцијалне опасности.[135]

Remove ads

Напомене

  1. У предавању из 1951. године[13] Тјуринг је тврдио да „изгледа вероватно да, једном када метода машинског размишљања започне, неће требати дуго да надмаши наше слабашне моћи. [...] Не би било питање умирања машина, и оне би могле да разговарају једна с другом како би изоштриле своју памет. У некој фази бисмо стога морали очекивати да машине преузму контролу, на начин који се помиње у Еревону Семјуела Батлера”. Такође, у предавању емитованом на Би-Би-Сију[14] изнео је мишљење: „Ако машина може да мисли, могла би да мисли интелигентније од нас, и где бисмо онда ми били? Чак и ако бисмо могли да држимо машине у подређеном положају, на пример искључивањем струје у стратешким тренуцима, ми бисмо се, као врста, осећали веома понижено... Ова нова опасност... је свакако нешто што нам може изазвати забринутост.”
  2. како је тумачи Сет Баум
    Remove ads

    Референце

    Литература

    Спољашње везе

    Loading related searches...

    Wikiwand - on

    Seamless Wikipedia browsing. On steroids.

    Remove ads