Intelixencia artificial xeral
From Wikipedia, the free encyclopedia
Remove ads
Unha intelixencia xeral artificial (IXA, AGI polas siglas en inglés de artificial general intelligence) é un tipo hipotético de axente intelixente. En caso de se materializar, unha AGI podería aprender a realizar calquera tarefa intelectual que poidan realizar os seres humanos ou os animais.[1][2] Alternativamente, AGI definiuse como un sistema autónomo que supera as capacidades humanas na maioría das tarefas economicamente valiosas.[3] A creación da AGI é un obxectivo principal dalgunhas investigacións en intelixencia artificial e de empresas como OpenAI,[3] DeepMind e Anthropic. A AGI é un tema común na ciencia ficción e estudos sobre o futuro.
O calendario para o desenvolvemento de AGI segue sendo un tema de debate continuo entre investigadores e expertos. Algúns argumentan que se poderá acadar en anos ou décadas; outros sosteñen que pode levar un século ou máis; e unha minoría cre que nunca se conseguirá.[4] Ademais, hai debate sobre se os modelos modernos de grandes linguas, como o GPT-4 do ChatGPT, son formas temperás aínda que incompletas de AGI ou se son necesarios novos enfoques.[5]
Existe unha disputa sobre o potencial de que a AGI supoña unha ameaza para a humanidade;[6] por exemplo, OpenAI trátao como un risco existencial, mentres que outros consideran que o desenvolvemento dunha AGI é demasiado remoto para presentar un risco.[7] [8] [9] Unha enquisa de 2020 identificou 72 proxectos de I+D AGI activos repartidos en 37 países.[10]
Remove ads
Terminoloxía
A AGI tamén se coñece como IA forte (strong AI), [11] IA completa, (full AI)[12] AI de nivel humano (human-level AI)[8] ou acción intelixente xeral (general intelligent action).[13] Porén, algunhas fontes académicas reservan o termo "IA forte" para programas informáticos que experimentan sensibilidade ou conciencia.[a] Pola contra, a IA débil ou a IA estreita (weak AI, narrow AI) é capaz de resolver un problema específico, pero carece de capacidades cognitivas xerais. Algunhas fontes académicas usan a "IA débil" para referirse de xeito máis amplo a calquera programa que nin experimenta conciencia nin ten unha mente no mesmo sentido que os seres humanos.
Os conceptos relacionados inclúen a superintelixencia artificial e a IA transformadora. Unha superintelixencia artificial (ASI, artificial superintelligence) é un tipo hipotético de AGI que é moito máis intelixente en xeral que os humanos.[14] E a noción de IA transformadora refírese a que a IA teña un gran impacto na sociedade, por exemplo similar á revolución agrícola.[15]
Remove ads
Características
Propuxéronse varios criterios para a intelixencia (o máis famoso é o test de Turing) pero ningunha definición é amplamente aceptada.[b]
Trazos de intelixencia
Porén, os investigadores xeralmente sosteñen que a intelixencia é necesaria para facer todo o seguinte:[17]
- razoar, utilizar estratexias, resolver crebacabezas e emitir xuízos baixo a incerteza
- representar o coñecemento, incluíndo o sentido común
- plan
- aprender
- comunicarse en linguaxe natural
- se é necesario, integre estas habilidades para acadar calquera obxectivo
Moitos enfoques interdisciplinares (por exemplo, a ciencia cognitiva, a intelixencia computacional e a toma de decisións) consideran trazos adicionais como a imaxinación (a capacidade de formar imaxes e conceptos mentais novos)[18] e a autonomía.[19] Existen sistemas baseados en computadoras que presentan moitas destas capacidades (por exemplo, véxase creatividade computacional, razoamento automatizado, sistema de apoio á decisión, robot/ robótica, computación evolutiva, axente intelixente...). Porén, non hai consenso sobre que os sistemas modernos de IA as posúan nun grao adecuado.
Trazos físicos
Outras capacidades considéranse desexables en sistemas intelixentes, xa que poden afectar á intelixencia ou axudar na súa expresión. Estes inclúen:[20]
- a capacidade de sentir (por exemplo, ver, escoitar, etc.), e
- a capacidade de actuar (por exemplo, mover e manipular obxectos, cambiar de lugar para explorar, etc.)
Probas para AGI a nivel humano
Consideráronse varias probas destinadas a confirmar AGI a nivel humano, incluíndo:[21]
- Unha máquina e un humano conversan sen ser vistos cun segundo humano, que debe avaliar cal dos dous é a máquina, que pasa a proba se pode enganar ao avaliador unha fracción significativa do tempo. Nota: Turing non prescribe o que debe cualificar como intelixencia, só que saber que é unha máquina debería descualificala. A IA de Eugene Goostman logrou a estimación de Turing de convencer ao 30% dos xuíces de que era humano en 2014.
- The Robot College Student Test (Goertzel)
- Unha máquina inscríbese nunha universidade, tomando e aprobando as mesmas clases que os humanos, e obtendo un título. Os LLM agora poden aprobar exames de grao universitario sen sequera asistir ás clases.[22]
- A proba de emprego (Nilsson)
- Unha máquina realiza un traballo economicamente importante polo menos tan ben como os humanos no mesmo traballo. Agora as IAs están a substituír os humanos en moitos papeis tan variados como a comida rápida e o marketing[23]
- A proba de Ikea (Marcus)
- Tamén coñecido como 'Flat Pack Furniture Test'. Unha IA ve as pezas e as instrucións dun produto de paquete plano de Ikea e despois controla un robot para montar os mobles correctamente.
- A proba do café (Wozniak)
- Requírese unha máquina para entrar nunha casa americana media e descubrir como facer café: atopar a máquina de café, atopar o café, engadir auga, atopar unha cunca e preparar o café premendo os botóns axeitados. Isto aínda non se completou.
Problemas de IA completa
Hai moitos problemas que poden requirir intelixencia xeral para resolver os problemas tan ben como o fan os humanos. Por exemplo, mesmo tarefas sinxelas e específicas, como a tradución automática, requiren que unha máquina lea e escriba nos dous idiomas (NLP), siga o argumento do autor (razoamento), saiba do que se fala (coñecemento) e reproduza fielmente a orixinal intención do autor (intelixencia social). Todos estes problemas deben ser resoltos simultaneamente para alcanzar o rendemento da máquina a nivel humano.
Un problema chámase informalmente "AI-complete" ou "AI-hard" ("IA completa" ou "IA-dura" se se cre que para resolvelo é necesario implementar unha IA forte, porque a solución está máis aló das capacidades dun algoritmo específico para o propósito.[24]
Suponse que os problemas de intelixencia artificial inclúen a visión xeral por ordenador, a comprensión da linguaxe natural e o tratamento de circunstancias inesperadas mentres se resolve calquera problema do mundo real.[25]
Os problemas de intelixencia artificial non se poden resolver só coa tecnoloxía informática actual e requiren computación humana. Esta limitación podería ser útil para probar a presenza de humanos, como pretenden facer os CAPTCHA; e para que a seguridade informática repela ataques de forza bruta.
Remove ads
Historia
IA clásica
A investigación moderna da IA comezou a mediados da década de 1950.[26] A primeira xeración de investigadores de IA estaba convencida de que a intelixencia xeral artificial era posíbel e de que existiría en poucas décadas.[27] O pioneiro da intelixencia artificial Herbert A. Simon escribiu en 1965: "as máquinas serán capaces, dentro de vinte anos, de facer calquera traballo que poida facer un home".[28]
As súas predicións foron a inspiración para o personaxe HAL 9000 de Stanley Kubrick e Arthur C. Clarke, que encarnaron o que os investigadores de IA crían que poderían crear para o ano 2001. O pioneiro da intelixencia artificial, Marvin Minsky, foi un consultor[29] no proxecto de facer que HAL (A. C. Clarke afirmou que seren as letras previas a IBM foi só casualidade) fose o máis realista posíbel segundo as previsións de consenso da época. Dixo en 1967: "Dentro dunha xeración... o problema de crear "intelixencia artificial" resolverase substancialmente".[30]
Varios proxectos clásicos de IA, como o proxecto Cyc de Doug Lenat (que comezou en 1984) e o proxecto Soar de Allen Newell, foron dirixidos á AGI. Porén, a principios dos anos 70, fíxose obvio que os investigadores subestimaran enormemente a dificultade do proxecto. As axencias de financiamento volvéronse escépticas con respecto a AGI e someteron aos investigadores a unha presión crecente para producir unha "IA aplicada" útil.[c] A principios dos anos 80, o Proxecto informático de quinta xeración do Xapón reavivou o interese en AGI, establecendo un calendario de dez anos que incluía obxectivos de AGI como "continuar unha conversación casual".[34] En resposta a isto e ao éxito dos sistemas expertos, tanto a industria como o goberno inxectaron diñeiro no campo.[35] [36]
Con todo, a confianza na IA derrubouse espectacularmente a finais dos anos 80, e os obxectivos do Proxecto informático de quinta xeración nunca se cumpriron.[37] Por segunda vez en 20 anos, os investigadores de IA que predixeron o logro inminente de AGI equivocaron. Na década de 1990, os investigadores de IA tiñan a reputación de facer promesas vanas. Fixéronse reticentes a facer predicións en absoluto[d] e evitaron mencionar a intelixencia artificial de "nivel humano" por medo a ser etiquetados como "soñador[es] de ollos salvaxes".[39]
Investigación estreita da IA
Na década de 1990 e principios do século XXI, a IA convencional logrou éxito comercial e respectabilidade académica centrándose en subproblemas específicos nos que a IA pode producir resultados verificables e aplicacións comerciais, como o recoñecemento de voz e os algoritmos de recomendación.[40] Estes sistemas de "IA aplicada" utilízanse agora amplamente en toda a industria tecnolóxica, e a investigación nesta liña está moi financiada tanto no ámbito académico como na industria. A partir de 2018, o desenvolvemento neste campo considerouse unha tendencia emerxente e espérase que en máis de 10 anos se alcanzara unha etapa madura.[41] A principios de século, moitos dos principais investigadores de IA[42] esperaban que se puidese desenvolver unha IA forte combinando programas que resolvían varios subproblemas. Hans Moravec escribiu en 1988:
Confío en que esta ruta de abaixo cara á intelixencia artificial atopará algún día a ruta tradicional de arriba abaixo máis da metade do camiño, lista para proporcionar a competencia do mundo real e o coñecemento do sentido común que foi tan frustrantemente esquivo nos programas de razoamento. Máquinas totalmente intelixentes resultarán cando o metafórico pico dourado sexa impulsado unindo os dous esforzos.[42]
Porén, mesmo nese momento, isto foi disputado. Por exemplo, Stevan Harnad, da Universidade de Princeton, concluíu o seu artigo de 1990 sobre a hipótese do fundamento do símbolo afirmando:
Moitas veces expresouse a expectativa de que os enfoques "de arriba abaixo" (simbólicos) para modelar a cognición atoparán dalgún xeito os enfoques "de abaixo a arriba" (sensorial) nalgún lugar intermedio. Se as consideracións fundamentais deste traballo son válidas, entón esta expectativa é irremediablemente modular e realmente só hai unha ruta viable desde o sentido até os símbolos: desde o principio. Nunca se chegará por esta vía (ou viceversa) a un nivel simbólico flotante como o nivel de software dunha computadora; tampouco está claro por que deberíamos tratar de alcanzar tal nivel, xa que parece que chegar até alí só sería necesario. equivalen a arrincar os nosos símbolos dos seus significados intrínsecos (reducíndonos simplemente ao equivalente funcional dun ordenador programábel).[43]
Investigación moderna en intelixencia artificial xeral
O termo "intelixencia xeral artificial" foi usado xa en 1997 por Mark Gubrud[44] nunha discusión sobre as implicacións da produción e operacións militares totalmente automatizadas. Un formalismo matemático de AGI foi proposto por Marcus Hutter en 2000. Chamado AIXI, o axente AGI proposto maximiza "a capacidade de satisfacer obxectivos nunha ampla gama de ambientes".[45] Este tipo de AGI, caracterizado pola capacidade de maximizar unha definición matemática de intelixencia en lugar de mostrar un comportamento humano,[46] tamén se chamou intelixencia artificial universal.[47]
O termo AGI foi reintroducido e popularizado por Shane Legg e Ben Goertzel ao redor de 2002.[48] A actividade de investigación de AGI en 2006 foi descrita por Pei Wang e Ben Goertzel[49] como "produción de publicacións e resultados preliminares". A primeira escola de verán en AGI foi organizada en Xiamen, China en 2009[50] polo Artificial Brain Laboratory da universidade de Xiamen e OpenCog. O primeiro curso universitario foi impartido en 2010[51] e 2011[52] na Universidade de Plovdiv, Bulgaria, por Todor Arnaudov. O MIT presentou un curso sobre AGI en 2018, organizado por Lex Fridman e no que participaron varios profesores invitados.
Desde 2023, un número baixo de científicos informáticos están activos nas conferencias sobre AGI, e moitos contribúen a unha serie de conferencias sobre AGI. Con todo, cada vez máis investigadores están interesados na aprendizaxe aberta ou continua,[2] que é a idea de permitir que a IA aprenda e innove continuamente como o fan os humanos. Aínda que a maioría dos traballos de aprendizaxe aberto seguen realizándose en Minecraft,[17][20][53][54] a súa aplicación pode estenderse á robótica e á ciencia en xeral.
Viabilidade
A partir de 2023, as formas completas de AGI seguen sendo especulativas. Aínda non se demostrou ningún sistema que cumpra cos criterios xeralmente aceptados para a AGI. As opinións varían tanto en se e cando chegará a intelixencia artificial xeral. O pioneiro da IA Herbert A. Simon especulou en 1965 que "as máquinas serán capaces, dentro de vinte anos, de facer calquera traballo que un home poida facer". Esa predición non se cumpriu. O cofundador de Microsoft, Paul Allen, cría que tal intelixencia sería improbábel no século XXI porque requeriría "avances imprevisíbs e fundamentalmente impredecíbeis" e un "entendemento cientificamente profundo da cognición".[55] Escribindo en The Guardian, o robótico Alan Winfield afirmou que o abismo entre a computación moderna e a intelixencia artificial a nivel humano é tan amplo como o abismo entre o voo espacial actual e o voo espacial práctico máis rápido que a luz.[56]
A maioría dos investigadores de IA cren que se pode conseguir unha IA forte no futuro, pero algúns pensadores, como Hubert Dreyfus e Roger Penrose, negan a posibilidade de lograr unha IA forte.[57] [58] John McCarthy está entre os que cren que a IA a nivel humano se logrará, pero que o nivel actual de progreso é tal que non se pode prever unha data con precisión.[59]
Opinións dos expertos en intelixencia artificial sobre a viabilidade do wax and wane AGI
Catro enquisas realizadas en 2012 e 2013 indicaron que a mediana estimada entre os expertos para cando estarían seguros nun 50% de chegar a AGI era de 2040 a 2050, dependendo da enquisa, sendo a media de 2081. Dos expertos, o 16,5% respondeu con "nunca" cando se lle fixo a mesma pregunta pero cun 90% de confianza.[60] [61] Pódense atopar máis consideracións sobre o progreso actual da AGI na sección anterior Tests para confirmar a AGI a nivel humano.
Un informe de Stuart Armstrong e Kaj Sotala do Machine Intelligence Research Institute descubriu que "ao longo de [un] período de 60 anos hai un forte sesgo para prever a chegada da IA a nivel humano entre 15 e 25 anos desde o momento en que fíxose unha predición". Analizaron 95 predicións feitas entre 1950 e 2012 sobre cando se producirá a IA a nivel humano.[62]
En 2023, os investigadores de Microsoft publicaron unha avaliación detallada de GPT-4. Concluíron: "Dada a amplitude e profundidade das capacidades do GPT-4, cremos que podería razoabelmente ser visto como unha versión inicial (aínda aínda incompleta) dun sistema de intelixencia xeral artificial (AGI)".[63] Outro estudo realizado en 2023 informou de que o GPT-4 supera o 99% dos humanos nas probas de pensamento creativo de Torrance.[64] [65]
Escalas de tempo
Na introdución ao seu libro de 2006,[66] Goertzel di que as estimacións do tempo necesario antes de construír un AGI verdadeiramente flexíbel varían de 10 anos a máis dun século. Desde 2007, o consenso na comunidade investigadora de AGI parecía ser que a liña temporal discutida por Ray Kurzweil en 2005 en The Singularity is Near [67] (é dicir, entre 2015 e 2045) era plausíbel.[68] Os principais investigadores de IA emitiron unha ampla gama de opinións sobre se o progreso será tan rápido. Unha metaanálise de 2012 de 95 opinións deste tipo atopou un nesgo para prever que a aparición de AGI ocorrería dentro de 16-26 anos para as predicións modernas e históricas. Ese documento foi criticado por clasificar as opinións como expertas ou non expertas.[69]
En 2012, Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton desenvolveron unha rede neuronal chamada AlexNet, que gañou o concurso ImageNet cunha taxa de erro nos cinco mellores tests do 15.3%, significativamente mellor que a taxa do segundo mellor participante do 26.3% (o enfoque tradicional utilizaba unha suma ponderada de puntuacións de diferentes clasificadores predefinidos). AlexNet foi considerada como a iniciadora da actual onda de aprendizaxe profunda.[70]
En 2017, os investigadores Feng Liu, Yong Shi e Ying Liu realizaron probas de intelixencia en IA débil dispoñíbel para o público e de acceso gratuíto, como Google AI, Siri de Apple e outros. Como máximo, estas IA alcanzaron un valor de coeficiente intelectual duns 47, o que corresponde aproximadamente a un neno de seis anos de primeiro curso. Un adulto chega a uns 100 de media. En 2014 realizáronse probas similares, coa puntuación do coeficiente intelectual alcanzando un valor máximo de 27.[71] [72]
En 2020, OpenAI desenvolveu GPT-3, un modelo de linguaxe capaz de realizar moitas tarefas diversas sen formación específica. Segundo Gary Grossman nun artigo de VentureBeat, aínda que hai consenso en que GPT-3 non é un exemplo de AGI, algúns considérano que é demasiado avanzado para clasificalo como un sistema de IA estreita.[73]
No mesmo ano, Jason Rohrer utilizou a súa conta GPT-3 para desenvolver un chatbot e proporcionou unha plataforma de desenvolvemento de chatbot chamada "Project December". OpenAI solicitou cambios no chatbot para cumprir coas súas pautas de seguridade; Rohrer desconectou Project December da API GPT-3.[74]
En 2022, DeepMind desenvolveu Gato, un sistema de "propósito xeral" capaz de realizar máis de 600 tarefas diferentes.
En 2023, Microsoft Research publicou un estudo sobre unha versión inicial do GPT-4 de OpenAI, afirmando que mostraba unha intelixencia máis xeral que os modelos anteriores de IA e demostraba un rendemento a nivel humano en tarefas que abarcan varios dominios, como matemáticas, codificación e dereito. Esta investigación provocou un debate sobre se o GPT-4 podería considerarse unha versión temperá e incompleta da intelixencia xeral artificial, facendo fincapé na necesidade de seguir explorando e avaliando estes sistemas. En 2023, Microsoft Research publicou un estudo sobre unha versión inicial do GPT-4 de OpenAI. Este modelo foi adestrado cunha escala de computación e datos sen precedentes, mostrando melloras significativas en moitas dimensións, como a capacidade de resumir documentos longos, responder a preguntas complexas sobre unha ampla variedade de temas e explicar o razoamento detrás das respostas, ademais de contar chistes e escribir código e poesía.[75] A medida que os modelos de fundación, como GPT-4, alcanzan un tamaño crítico, comezan a mostrar capacidades que non estaban presentes anteriormente, o que se coñece como "capacidades emerxentes". Non obstante, aínda existen limitacións significativas en canto a fiabilidade, exactitude e outras cuestións que deben ser exploradas.[75]
En 2023, o investigador de IA Geoffrey Hinton afirmou sobre a idea de que estas 'cousas' poderían ser realmente máis intelixentes que as persoas:
Algunhas persoas crían iso, [...]. Pero a maioría da xente pensaba que estaba moi lonxe. Eu tamén pensei que estaba moi lonxe. Pensei que quedaban entre 30 e 50 anos ou incluso máis. Obviamente, xa non o penso.
Remove ads
Simulación cerebral
Emulación do cerebro completo
Un enfoque posíbel para lograr a AGI é a emulación do cerebro enteiro: un modelo de cerebro constrúese escaneando e mapeando un cerebro biolóxico en detalle, e despois copiándoo e simulándoo nun sistema informático ou noutro dispositivo computacional. O modelo de simulación debe ser o suficientemente fiel ao orixinal, para que se comporte practicamente do mesmo xeito que o cerebro orixinal.[76] A emulación do cerebro enteiro é discutida en neurociencia computacional e neuroinformática, no contexto da simulación cerebral para fins de investigación médica. Foi discutido na investigación de intelixencia artificial [68] como unha aproximación á IA forte. As tecnoloxías de neuroimaxes que poderían proporcionar a comprensión detallada necesaria están mellorando rapidamente, e o futurista Ray Kurzweil no libro The Singularity Is Near [67] prevé que estará dispoñíbe un mapa de calidade suficiente nunha escala de tempo similar á potencia de cálculo necesaria para emulalo.
Estimacións anticipadas

Para a simulación cerebral de baixo nivel, sería necesario un grupo moi potente de ordenadores ou GPU. O cerebro humano ten un gran número de sinapses. Cada unha das 10 11 (cen mil millóns) neuronas ten unha media de 7.000 conexións sinápticas (sinapses) con outras neuronas. O cerebro dun neno de tres anos ten unhas 10 15 sinapses (1 billón). Este número diminúe coa idade, estabilizándose na idade adulta. As estimacións varían para un adulto, oscilando entre 10 14 e 5×10 14 sinapses (de 100 a 500 billóns).[78] Unha estimación da potencia de procesamento do cerebro, baseada nun modelo de conmutación simple para a actividade das neuronas, é duns 10 14 (100 billóns) de actualizacións sinápticas por segundo (SUPS).[79]
En 1997, Kurzweil analizou varias estimacións do hardware necesario para igualar o cerebro humano e adoptou unha cifra de 1016 cálculos por segundo (cps).[e] (A modo de comparación, se un "cómputo" fose equivalente a unha " operación de coma flotante", unha medida que se usa para clasificar os superordenadores actuais, entón 1016 "cómputos" serían equivalentes a 10 petaFLOPS, logrados en 2011, mentres que 1018 alcanzouse en 2022), Utilizou esta cifra para prever que o hardware necesario estaría dispoñíbel nalgún momento entre 2015 e 2025, se o crecemento exponencial da potencia dos ordenadores no momento da escritura continuase.
Investigación actual
Algúns proxectos de investigación están investigando a simulación cerebral utilizando modelos neuronais máis sofisticados, implementados en arquitecturas informáticas convencionais. O proxecto do Sistema de Intelixencia Artificial implementou simulacións en tempo non real dun "cerebro" (con 10 11 neuronas) en 2005. Levou 50 días nun clúster de 27 procesadores simular 1 segundo dun modelo.[82] O proxecto Blue Brain utilizou unha das arquitecturas de supercomputadoras máis rápidas, a plataforma Blue Gene de IBM, para crear unha simulación en tempo real dunha única columna neocortical de ratas formada por aproximadamente 10.000 neuronas e 10 8 sinapses en 2006.[83] Un obxectivo a longo prazo é construír unha simulación detallada e funcional dos procesos fisiolóxicos no cerebro humano: "Non é imposíbel construír un cerebro humano e podemos facelo en 10 anos", Henry Markram, director do Blue Brain Project, dixo en 2009 na conferencia TED en Oxford.[84] As interfaces de neuro-silicio propuxéronse como unha estratexia de implementación alternativa que pode escalar mellor.[85]
Hans Moravec abordou os argumentos anteriores ("os cerebros son máis complicados", "as neuronas teñen que modelarse con máis detalle") no seu artigo de 1997 "When will computer hardware match the human brain?" ¿Cando coincidirá o hardware da computadora co cerebro humano?". [81] Mediu a capacidade do software existente para simular a funcionalidade do tecido neural, en concreto da retina. Os seus resultados non dependen do número de células gliais, nin do tipo de procesamento que as neuronas realizan, nin da súa localización específica no tecido neural.
A complexidade real do modelado de neuronas biolóxicas foi explorada no proxecto OpenWorm que tiña como obxectivo a simulación completa dun verme que ten só 302 neuronas na súa rede neuronal (entre unhas 1000 células en total). A rede neuronal do animal estaba ben documentada antes do inicio do proxecto. Porén, aínda que a tarefa parecía simple ao principio, os modelos baseados nunha rede neuronal xenérica non funcionaron. Actualmente, os esforzos céntranse na emulación precisa de neuronas biolóxicas (en parte a nivel molecular), pero o resultado aínda non pode ser considerado un éxito total.
En 2023, os investigadores realizaron unha exploración de alta resolución do cerebro dun rato.[86]
Críticas aos enfoques baseados na simulación
O modelo de neurona artificial asumido por Kurzweil e usado en moitas implementacións actuais de redes neuronais artificiais é sinxelo en comparación coas neuronas biolóxicas . Probablemente, unha simulación cerebral tería que capturar o comportamento celular detallado das neuronas biolóxicas, que actualmente só se entende a grandes trazos. A sobrecarga introducida pola modelización completa dos detalles biolóxicos, químicos e físicos do comportamento neural (especialmente a escala molecular) requiriría potencias computacionais varias ordes de magnitude maiores que a estimación de Kurzweil. Ademais, as estimacións non teñen en conta as células gliais, que se sabe que desempeñan un papel nos procesos cognitivos.[87]
Unha crítica fundamental ao enfoque do cerebro simulado deriva da teoría da cognición incorporada que afirma que a incorporación humana é un aspecto esencial da intelixencia humana e é necesaria para fundamentar o significado.[88] [89] Se esta teoría é correcta, calquera modelo cerebral totalmente funcional terá que abarcar máis que só as neuronas (por exemplo, un corpo robótico). Goertzel [68] propón a incorporación virtual (como en Second Life) como opción, pero descoñécese se isto sería suficiente.
Remove ads
Perspectiva filosófica
"IA forte" como se define na filosofía
En 1980, o filósofo John Searle acuñou o termo strong AI como parte do seu argumento da sala chinesa.[90] Quería distinguir entre dúas hipóteses diferentes sobre a intelixencia artificial: [f]
- Hipótese de IA forte: un sistema de intelixencia artificial pode ter "unha mente" e "consciencia".
- Hipótese da IA feble: un sistema de intelixencia artificial pode (só) actuar como pensa e ten unha mente e unha conciencia.
O primeiro que chamou "forte" porque fai unha afirmación máis contundente : supón que lle pasou algo especial á máquina que vai máis aló desas habilidades que podemos probar. O comportamento dunha máquina de "IA débil" sería precisamente idéntico ao dunha máquina de "IA forte", pero esta última tamén tería experiencia consciente subxectiva. Este uso tamén é común na investigación académica da intelixencia artificial e nos libros de texto.[91]
En contraste con Searle e a IA convencional, algúns futuristas como Ray Kurzweil usan o termo "IA forte" para significar "intelixencia xeral artificial a nivel humano".[67] Isto non é o mesmo que a sala chinesa / IA forte de Searle, a non ser que se asuma que a conciencia é necesaria para AGI a nivel humano. Filósofos académicos como Searle non cren que sexa así, e para a maioría dos investigadores de intelixencia artificial a cuestión está fóra de alcance.[92]
A IA mainstream está máis interesada en como se comporta un programa.[93] Segundo Russell e Norvig, "sempre que o programa funcione, non lles importa se o chamas real ou simulación".[92] Se o programa pode comportarse coma se tivese mente, entón non hai necesidade de saber se realmente ten mente; de feito, non habería forma de dicilo. Para a investigación da IA, a "hipótese débil da IA" de Searle é equivalente á afirmación "a intelixencia xeral artificial é posíbel". Así, segundo Russell e Norvig, "a maioría dos investigadores de IA dan por sentada a hipótese da IA débil e non se preocupan pola hipótese da IA forte".[92] Así, para a investigación académica de IA, "IA forte" e "AGI" son dúas cousas diferentes.
Consciencia, autoconsciencia, sensibilidade
Outros aspectos da mente humana, ademais da intelixencia, son relevantes para o concepto de AGI ou "IA forte", e estes xogan un papel importante na ciencia ficción e na ética da intelixencia artificial :
- Consciencia : Ter experiencia subxectiva . Thomas Nagel explica que "sente como" algo estar consciente. Se non somos conscientes, entón non parece nada. Nagel usa o exemplo dun morcego: podemos preguntar con sensatez "que se sente ao ser un morcego?" Non obstante, é improbable que nos preguntemos "que se sente ao ser torrador?" Nagel conclúe que un morcego parece estar consciente (é dicir, ten conciencia) pero unha torradeira non.[94]
- Autoconsciencia: ter conciencia de si mesmo como un individuo separado, especialmente para ser consciente dos propios pensamentos. Isto oponse a simplemente ser o "suxeito do propio pensamento": un sistema operativo ou depurador é capaz de ser "consciente de si mesmo" (é dicir, representarse a si mesmo do mesmo xeito que representa todo o demais) pero isto non é o que a xente normalmente significan cando usan o termo "auto-conciencia" ou en inglés "self-awareness".[g]
- Sensibilidade: a capacidade de "sentir" percepcións ou emocións de forma subxectiva, en oposición á capacidade de razoar sobre as percepcións ou, no que se refire ás emocións, de ser consciente de que a situación require urxencia, amabilidade ou agresión. Por exemplo, podemos construír unha máquina que saiba que obxectos no seu campo de visión son vermellos, pero esta máquina non saberá necesariamente 'como é o vermello'.
Estes trazos teñen unha dimensión moral, porque unha máquina con esta forma de "IA forte" pode ter dereitos, análogos aos dereitos dos animais non humanos. Realizouse un traballo preliminar para integrar unha IA forte cos marcos legais e sociais existentes, centrándose na posición xurídica e nos dereitos da IA "forte".[96]
Queda por demostrar se é necesaria a " consciencia artificial " para AGI. Non obstante, moitos investigadores de AGI consideran que a investigación que investiga as posibilidades de implementar a conciencia é vital.[97]
Bill Joy, entre outros, argumenta que unha máquina con estes trazos pode ser unha ameaza para a vida ou a dignidade humana.
Remove ads
Retos de investigación
O progreso na intelixencia artificial pasou historicamente por períodos de rápido progreso separados por períodos nos que o progreso parecía deterse.[57] Terminar cada parón foron os avances fundamentais en hardware, software ou ambos para crear espazo para un maior progreso.[57] [98] [99] Por exemplo, o hardware do ordenador dispoñíbel no século XX non era suficiente para implementar a aprendizaxe profunda, o que require un gran número de CPU habilitadas para GPU.[100]
Outro reto é a falta de claridade á hora de definir o que implica a intelixencia. Require consciencia? Debe mostrar a capacidade de establecer obxectivos e de perseguilos? É puramente unha cuestión de escala de tal xeito que se o tamaño dos modelos aumenta o suficiente, xurdirá a intelixencia? Son necesarias facilidades como a planificación, o razoamento e a comprensión causal? A intelixencia require replicar explicitamente o cerebro e as súas facultades específicas? Require emocións? [101]
Remove ads
Beneficios
AGI podería ter unha gran variedade de aplicacións. Se se orienta a tales obxectivos, AGI podería axudar a mitigar diversos problemas no mundo como a fame, a pobreza e os problemas de saúde.[102]
AGI podería mellorar a produtividade e a eficiencia na maioría dos traballos. Por exemplo, na saúde pública, AGI podería acelerar a investigación médica, especialmente contra o cancro.[103] Podería atender aos anciáns[104] e democratizar o acceso a diagnósticos médicos rápidos e de alta calidade. Podería ofrecer unha educación divertida, barata e personalizada.[105] Para practicamente calquera traballo que beneficie á sociedade se se fai ben, probablemente tarde ou cedo sería preferíbel deixalo a unha AGI. A necesidade de traballar para subsistir podería quedar obsoleta se a riqueza producida é redistribuída axeitadamente.[106] Isto tamén suscita a cuestión do lugar dos humanos nunha sociedade radicalmente automatizada.
AGI tamén pode axudar a tomar decisións racionais e a prever e previr desastres. Tamén podería axudar a aproveitar os beneficios de tecnoloxías potencialmente catastróficas como a nanotecnoloxía ou a enxeñaría climática, evitando os riscos asociados.[107] Se o obxectivo principal dunha AGI é previr catástrofes existenciais como a extinción humana (o que podería ser difícil se a Hipótese do Mundo Vulnerable resulta ser certa),[108] podería tomar medidas para reducir drasticamente os riscos [107] mentres minimiza o impacto. destas medidas sobre a nosa calidade de vida.
Remove ads
Riscos
Ameaza potencial para a existencia humana
A tese de que a IA supón un risco existencial para os humanos, e que este risco necesita unha maior atención, é controvertida pero foi avalada por moitas figuras públicas, entre elas Elon Musk, Bill Gates e Stephen Hawking. Investigadores de IA como Stuart J. Russell, Roman Yampolskiy e Alexey Turchin tamén apoian a tese básica dunha ameaza potencial para a humanidade.[109] [110] [111] Gates afirma que non "entende por que algunhas persoas non están preocupadas", [112] e Hawking criticou a indiferenza xeneralizada no seu editorial de 2014:
“ | Así que, ante posibles futuros de beneficios e riscos incalculables, os expertos seguramente están facendo todo o posible para asegurar o mellor resultado, verdade? Non. Se unha civilización alieníxena superior nos enviase unha mensaxe dicindo, 'Chegaremos nunhas décadas,' responderíamos simplemente, 'OK, chámanos cando chegues — deixaremos as luces acesas?' Probabelmente non — pero isto é máis ou menos o que está a suceder coa IA.[113] | ” |
O destino da humanidade ás veces foi comparado co destino dos gorilas ameazados polas actividades humanas. A comparación indica que unha maior intelixencia permitiu á humanidade dominar os gorilas, que agora son vulnerables dun xeito que non poderían ter previsto. Como resultado, o gorila converteuse nunha especie en perigo de extinción, non por malicia, senón simplemente como un dano colateral das actividades humanas.[114]
O escéptico Yann LeCun considera que as AGI non terán ningún desexo de dominar á humanidade e que debemos ter coidado de non antropomorfizalos e interpretar as súas intencións como fariamos para os humanos. Dixo que a xente non será "o suficientemente intelixente como para deseñar máquinas superintelixentes, pero ridículamente estúpida até o punto de darlle obxectivos estúpidos sen garantías".[115] O antigo tsar da fraude (o anterior responsábel principal da loita contra a fraude de Google), Shuman Ghosemajumder, observou que para moitas persoas fóra da industria tecnolóxica, os chatbots e os LLM existentes xa se perciben como se fosen AGI, o que provoca máis malentendidos e medo.[116] LeCun argumentou que os LLM actuais nin sequera son tan intelixentes como os cans.[117] Por outra banda, o concepto de converxencia instrumental suxire que case sexan cales sexan os seus obxectivos, os axentes intelixentes terán motivos para tratar de sobrevivir e adquirir máis poder como pasos intermediarios para acadar estes obxectivos. E que iso non require ter emocións. Nick Bostrom dá o experimento mental do optimizador de clips de papel:[118]
“ | Supoñamos que temos unha IA cuxo único obxectivo é facer o maior número posible de clips de papel. A IA decatarase rapidamente de que sería moito mellor se non houbese humanos, porque os humanos poderían decidir apagala. Porque se os humanos o fan, habería menos clips de papel. Ademais, os corpos humanos conteñen moitos átomos que poderían ser convertidos en clips de papel. O futuro cara ao que a IA trataría de orientarse sería un no que houbese moitos clips de papel pero ningún humano | ” |
Unha revisión sistemática de 2021 dos riscos asociados con AGI, aínda que observou a escaseza de datos, atopou as seguintes ameazas potenciais: "A AGI afástase do control dos propietarios/xestores humanos, recibe ou desenvolve obxectivos inseguros, desenvolvemento de AGI e AGI inseguros con mala ética, moral e valores; xestión inadecuada da AGI e riscos existenciais".[119]
Moitos estudosos que están preocupados polo risco existencial defenden a investigación (posibelmente masiva) para resolver o difícil "problema de control " para responder á pregunta: que tipos de salvagardas, algoritmos ou arquitecturas poden implementar os programadores para maximizar a probabilidade de que a súa IA que mellore recursivamente seguir comportándose de forma amistosa, en lugar de destrutiva, despois de alcanzar a superintelixencia?[120] Resolver o problema do control é complicado pola carreira armamentística da IA,[121][122] que case con toda seguridade verá a militarización e armamento de AGI por máis dun Estado-nación, resultando nunha guerra habilitada por AGI, e no caso da IA. desalineamento, guerra dirixida por AGI, potencialmente contra toda a humanidade.[123]
A tese de que a IA pode supoñer un risco existencial tamén ten detractores. Os escépticos ás veces acusan que a tese é cripto-relixiosa, cunha crenza irracional na posibilidade de que a superintelixencia substitúa unha crenza irracional nun Deus omnipotente. Jaron Lanier argumentou en 2014 que a idea de que as máquinas actuais eran de calquera xeito intelixentes é "unha ilusión" e unha "estupendo estafa" por parte dos ricos.
Moitas críticas argumentan que AGI é improbábel a curto prazo. O científico informático Gordon Bell argumenta que a raza humana destruirase a si mesma antes de alcanzar a singularidade tecnolóxica. Gordon Moore, o defensor orixinal da Lei de Moore, declara: "Son un escéptico. Non creo que [unha singularidade tecnolóxica] poida ocorrer, polo menos durante moito tempo. E non sei por que o sinto así".[124] O ex-vicepresidente e científico xefe de Baidu, Andrew Ng, dixo en 2015 que preocuparse polo risco existencial da IA é "como preocuparse pola superpoboación en Marte cando aínda non pisamos o planeta".[125] [126]
En 2023, os directores executivos de Google DeepMind, OpenAI e Anthropic, xunto con outros líderes e investigadores da industria, emitiron unha declaración conxunta na que afirmaban que "mitigar o risco de extinción da IA debería ser unha prioridade global xunto a outros riscos a escala social como as pandemias e guerra nuclear".[127]
Paro masivo
Os investigadores de OpenAI estimaron que "o 80% da forza laboral estadounidense podería ter polo menos o 10% das súas tarefas laborais afectadas pola introdución de LLM, mentres que ao redor do 19% dos traballadores poden ver afectadas polo menos o 50% das súas tarefas".[128] Consideran que os oficinistas son os máis expostos, por exemplo os matemáticos, os contadores ou os deseñadores web.[129] AGI podería ter unha mellor autonomía, capacidade para tomar decisións, para interactuar con outras ferramentas informáticas, pero tamén para controlar corpos robotizados.
Segundo Stephen Hawking, o resultado da automatización sobre a calidade de vida dependerá de como se redistribúa a riqueza:
“ | Todo o mundo podería gozar dunha vida de ocio luxoso se a riqueza producida polas máquinas fose compartida, ou a maioría das persoas poden acabar sendo miserabelmente pobres se os propietarios das máquinas loitan con éxito contra a redistribución da riqueza. Até agora, a tendencia parece ser cara á segunda opción, coa tecnoloxía impulsando unha desigualdade cada vez maior. | ” |
Elon Musk considera que a automatización da sociedade esixirá que os gobernos adopten unha renda básica universal.[130]
Remove ads
Notas
Véxase tamén
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads