Los laboratorios han estado "encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable", dice una carta abierta firmada por personas como El cofundador de Apple, Steve Wozniak, y el político Andrew Yang.

Elon Musk y Steve Wozniak se encuentran entre los cientos de tecnólogos, empresarios e investigadores de alto perfil que piden a los laboratorios de IA que dejen de trabajar de inmediato en potentes sistemas de IA, instando a los desarrolladores a dar un paso atrás en la “carrera fuera de control” para implementar sistemas cada vez más avanzados. mientras evaluamos mejor los riesgos que la inteligencia artificial avanzada representa para la humanidad.

Hechos clave:

  • Cualquier laboratorio de IA que trabaje en sistemas más potentes que GPT-4, el poderoso motor que impulsa el Chat-GPT de OpenAI, debe “pausar inmediatamente” el trabajo durante al menos seis meses para que la humanidad pueda hacer un balance de los riesgos que plantean estos sistemas avanzados de IA, instó en una carta abierta publicada el miércoles por el Instituto Futuro de la Vida y firmada por más de 1.000 personas.
  • Cualquier pausa debe ser “pública y verificable” e incluir a todos los actores clave, decía la carta, instando a los gobiernos a “intervenir” y forzar el problema para aquellos que son demasiado lentos o no están dispuestos a detenerse.
  • La carta decía que los desarrollos acelerados de los últimos meses subrayan la necesidad de una acción drástica, con “laboratorios atrapados en una carrera fuera de control” para desarrollar e implementar sistemas cada vez más poderosos que nadie, incluidos sus creadores, pueden entender, predecir o controlar.
  • Los laboratorios y los expertos independientes deberían usar la pausa para desarrollar un conjunto de protocolos de seguridad compartidos que sean auditados y supervisados por expertos externos, decía la carta, lo que debería garantizar que los sistemas de IA “estén seguros más allá de toda duda razonable”.
  • Los firmantes incluyen un grupo de científicos informáticos de renombre como Yoshua Bengio y Stuart Russell, investigadores de pesos pesados académicos e industriales como Oxford, Cambridge, Stanford, Caltech, Columbia, Google, Microsoft y Amazon, así como destacados empresarios tecnológicos como el cofundador de Skype, Jaan. Tallin, el cofundador de Pinterest, Evan Sharp, y el cofundador de Ripple, Chris Larsen.
  • Como se invita a las personas a agregar sus propios nombres a la carta, que también incluye al autor Yuval Noah Harari y al político Andrew Yang, la lista debe tratarse con cierto grado de escepticismo y The Verge informó que el jefe de OpenAI, Sam Altman, aparentemente había sido agregado como un broma.

Contexto:

El tremendo éxito de ChatGPT, un chatbot de inteligencia artificial creado por OpenAI, con sede en EE. UU., desencadenó una carrera frenética por lanzar nuevos productos de IA al mercado. Los jugadores más importantes de la tecnología y las innumerables empresas emergentes ahora luchan por mantener o reclamar un espacio en el mercado de rápido crecimiento, lo que podría dar forma al futuro de todo el sector, y los laboratorios están trabajando para desarrollar productos cada vez más capaces. A corto plazo, los expertos advierten que los sistemas de inteligencia artificial corren el riesgo de exacerbar el sesgo y la desigualdad existentes, promover la desinformación, alterar la política y la economía y podrían ayudar a los piratas informáticos. A más largo plazo, algunos expertos advierten que la IA puede representar un riesgo existencial para la humanidad y podría acabar con nosotros. Si bien miran hacia el futuro, argumentan que la perspectiva de la IA superinteligente debe abordarse antes de que se desarrolle y garantizar que los sistemas sean seguros debería ser un factor clave del desarrollo actual.

Cita crucial:

La carta abierta termina con una nota positiva: “La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un ‘verano de IA’ en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados”.

En contra:

El filántropo multimillonario Bill Gates, fundador y ex director ejecutivo de Microsoft, que ha invertido mucho en OpenAI, no fue nombrado como signatario de la carta. Gates reconoció previamente el impacto transformador que la IA tendrá en la sociedad, elogió los avances “impresionantes” observados en el campo en los últimos meses y dijo que uno de sus principales objetivos es garantizar que sus beneficios se disfruten de manera equitativa, y en particular por parte de quienes más necesitan apoyo. . En una publicación de blog reciente, Gates identificó muchos de los mismos problemas planteados en la carta abierta firmada por gente como Musk. Gates dijo que las preocupaciones sociales en torno a la IA deben resolverse entre los gobiernos y el sector privado impulsando la tecnología para garantizar que se use para siempre. De los problemas técnicos, Gates dijo que el progreso reciente no ha hecho que algunos problemas sean más “urgentes hoy que antes” y que los investigadores ya están trabajando para solucionar otros problemas técnicos urgentes y es probable que lo logren en unos pocos años. Dijo que los problemas relacionados con la superinteligencia, una IA que supera las capacidades humanas en todos los ámbitos y ha dividido a la comunidad de IA en cuanto a si es un riesgo genuino o una especulación desesperada, son legítimos pero tampoco más cercanos dados los desarrollos recientes. Tales preocupaciones “se volverán más apremiantes con el tiempo”, agregó Gates.