Los directivos firmaron una carta en la que piden suspender por seis meses los experimentos con Inteligencia Artificial. El director de Open AI, que diseñó ChatGPT, reconoció tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques".

El fundador y director ejecutivo de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak y varios directores de empresas tecnológicas forman parte de las más de mil personas firmantes de una carta abierta en la que piden pausar, por seis meses, los experimentos de Inteligencia Artificial (IA) más poderosos que el famoso Chat GPT-4 desarrollado por la firma OpenAI. Esto, por advertir que puede tener “grandes riesgos para la humanidad”.

“Pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede aplicar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, se lee en la petición que también firmaron Evan Sharp, cofundador de Pinterest, y más directivos, fundadores y expertos del área.

Los directivos y magnates solicitan que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

Además, argumentan que los sistemas de IA contemporáneos se están volviendo competitivos para las tareas desarrolladas por los seres humanos. Ante esto, cuestionan si se debería permitir que las máquinas inunden los canales de información con propaganda y desinformación; si se deberían automatizar todos los trabajos; si se debería desarrollar mentes no humanas que eventualmente pudieran superar en número, en inteligencia y reemplazar a los humanos; y si se debería arriesgar el control de nuestra civilización.

“Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”, se lee en la carta.

Los firmantes apoyan la declaración de OpenAI, la cual señala que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”. Por su parte, el director de Open AI, que diseñó ChatGPT, Sam Altman, reconoció tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.

Los firmantes de la misiva, organizada por el Future of Life Institute, aseguran que ese momento “es ahora”.

En la carta se hace un llamado a que los desarrolladores de IA trabajen con los legisladores para acelerar “drásticamente” el desarrollo de sistemas de gobernanza sólidos, que incluyan autoridades reguladoras especializadas en la IA, supervisión y seguimiento de sistemas de alta capacidad, así como solidez en las auditorías.

De igual manera, que contemplen un financiamiento público sólido para la investigación técnica de seguridad de la IA; e instituciones capaces de hacer frente a las perturbaciones económicas y políticas que pueda causar la IA.

-Investing.com-

Lea también: Carlos III llega a Berlín en su primera visita al extranjero como rey