Mientras se invertían miles de millones en la IA generativa, empezabamos a enfrentar preguntas difíciles sobre una tecnología de vanguardia.

2023 fue el año de la inteligencia artificial. Tras el lanzamiento de ChatGPT en noviembre de 2022, esta se convirtió en una de las aplicaciones de más rápido crecimiento, con 100 millones de usuarios mensuales en dos meses. La IA se convirtió en el tema más popular del año (tal y como predijo Bill Gates en enero) y una serie de startups irrumpieron en el mercado con herramientas de IA capaces de generar desde voz sintética hasta vídeos. Evidentemente, la IA ha avanzado mucho desde principios de año, cuando la gente se preguntaba si ChatGPT sustituiría a la búsqueda de Google.

“Me interesa mucho más pensar en lo que viene mucho más allá de la búsqueda… ¿Qué hacemos que sea totalmente diferente y mucho más cool?“. Sam Altman, CEO de OpenAI, declaró a Forbes en enero.

Los rápidos avances tecnológicos atrajeron la atención de los inversionistas de capital riesgo, que invirtieron miles de millones de dólares en el sector. A la cabeza estuvo la inversión de US$10.000 millones de Microsoft en OpenAI, la empresa de inteligencia artificial más prometedora, que ahora, según los informes, tiene una valoración de US$80.000 millones.

En junio, Inflection, una de las principales empresas de IA, lanzó su chatbot Pi y recaudó US$1.300 millones a una valoración de US$4.000 millones. Un mes después, Hugging Face, que alberga miles de modelos de IA de código abierto, alcanzó una valoración de US$4.000 millones. En septiembre, Amazon anunció que planea invertir US$4.000 millones en Anthropic, el competidor de OpenAI, que lanzó su propio chatbot conversacional Claude 2.0 en julio y está valorado hoy en $18.400 millones, según una fuente con conocimiento directo.

Pero no todos los fundadores de IA han tenido un camino sencillo hacia la recaudación de fondos. Stability AI consiguió financiación con una valoración de US$1.000 millones en septiembre de 2022 para su popular modelo de IA de texto a imagen Stable Diffusion, pero desde entonces ha tenido problemas para recaudar fondos. Su CEO, Emad Mostaque, hizo afirmaciones engañosas sobre sus propias credenciales y las asociaciones estratégicas de la compañía a los inversores, según descubrió una investigación de Forbes en junio. En diciembre, un estudio de Stanford descubrió que el conjunto de datos utilizado para entrenar a Stable Diffusion contenía material ilegal de abusos sexuales a menores.

La fiebre del oro de la IA acuñó otros unicornios como Adept, que crea asistentes de IA que pueden navegar por Internet y ejecutar programas de software por ti, y Character AI, que utilizan 20 millones de personas para crear y chatear con personajes de chatbot de IA como Taylor Swift y Elon Musk. Las startups de IA generativa centradas en la empresa, como Typeface, Writer y Jasper, que ayudan a las empresas a automatizar tareas como la redacción de correos electrónicos y el resumen de documentos extensos, también han recibido una gran afluencia de financiación.

Pero en medio de la carrera por crear y lanzar herramientas de IA, Google se ha encontrado en una situación de desventaja. El gigante tecnológico lanzó su chatbot de IA conversacional Bard y su propio modelo de IA Gemini a finales de año.

Le puede interesar: CEO de Lamborghini habla sobre los 60 años la marca: la evolución a vehículos eléctricos e inteligencia artificial

En el último año, la IA ha penetrado prácticamente en todas las facetas de la vida. A los profesores les preocupaba que los alumnos utilizaran ChatGPT para hacer trampas en los deberes, y la herramienta se prohibió en los distritos escolares más populares de EE.UU. Los médicos y hospitales empezaron a utilizar herramientas de IA generativa no sólo para tomar apuntes y hacer trabajo sucio, sino también para diagnosticar a los pacientes. Mientras algunos candidatos políticos empezaron a desplegar la IA en sus campañas para interactuar con posibles votantes, otros utilizaron herramientas de IA generativa para crear deep fakes de adversarios políticos.

Los contenidos generados por IA inundaron Internet, lo que despertó la preocupación por la explotación de herramientas de IA ampliamente disponibles para crear contenidos nocivos. Por ejemplo, las noticias falsas producidas con software de IA generativa se hicieron virales en TikTok y YouTube, y el porno no consentido generado con IA proliferó en Reddit y Etsy. A medida que los contenidos de baja calidad generados por IA poblaban la web, ChatGPT causaba estragos en el mundo de los freelancers, ya que muchos temían perder sus trabajos a manos del nuevo software de IA que puede generar contenidos más rápido y más barato que los humanos.

Las empresas también utilizaron chatbots de IA para seleccionar, entrevistar y contratar empleados, lo que alerta sobre los prejuicios y riesgos que conlleva la tecnología. Los ciberdelincuentes encontraron útil ChatGPT para escribir código de malware y otros lo utilizaron como herramienta de vigilancia en redes sociales. Para combatir algunos de estos problemas, gigantes de la tecnología como Microsoft y Google contrataron equipos para hacer tests de jailbreak a sus propios modelos de IA y hacerlos más seguros.

“Aún quedan muchas cuestiones por resolver”, afirma Regina Barzila, catedrática de Ingeniería Eléctrica e Informática del Laboratorio de Ciencias de la Computación e IA del MIT (CSAIL). “Necesitamos contar con instrumentos que puedan descubrir qué tipo de problemas y sesgos hay en estos conjuntos de datos y disponer de tecnologías de IA meta que puedan regular la IA y ayudarnos a estar en una posición mucho más segura que en la que estamos hoy con la IA”.

En 2023, startups líderes en IA como OpenAI, Stability AI y Anthropic se vieron afectadas por una oleada de demandas por infracción de derechos de autor interpuestas por artistas, escritores y programadores, quienes alegaban que estas herramientas se basaban en vastos conjuntos de datos que utilizaban su contenido protegido por derechos de autor sin consentimiento ni remuneración. El experto jurídico Edward Klaris predice que estas demandas colectivas darán lugar a nuevas normas matizadas sobre el uso justo de la IA por parte de la Oficina de Derechos de Autor de EE.UU. en 2024.

“En el mundo jurídico se está produciendo un gran número de transacciones de IA. Algunas personas están molestas porque su trabajo ha sido descartado para crear datos de entrenamiento y quieren poder licenciar su contenido a las empresas de IA y cobrar por el uso de su material”, dijo Klaris, CEO y socio director del bufete de abogados de derechos de propiedad intelectual KlarisIP.

Lea también: ¿Cuál será el primer operador móvil que ofrecerá 5G en Colombia?

Después de que la Unión Europea intentara regular la tecnología a través de su Ley de IA de la UE, la administración Biden emitió una orden ejecutiva propia, exigiendo a las empresas emergentes que desarrollaran grandes modelos de IA que pudieran plantear riesgos para la seguridad nacional que los revelaran al gobierno. Aunque las empresas tecnológicas apoyaron en gran medida la orden ejecutiva, a las nuevas empresas les preocupaba que pudiera frenar el ritmo de la innovación.

“Si nos fijamos en la orden ejecutiva, en ella se formulan principios, lo cual está bien para articularlos, pero no se traduce realmente en cómo tomamos estos principios y los traducimos en alguna tecnología o barandilla que nos ayude a garantizar que la herramienta que estamos utilizando es realmente segura”, dijo Barzilla.

En 2023 también se produjo una fractura entre los líderes de la IA, que están divididos sobre si la tecnología de la IA debe desarrollarse abiertamente o por empresas poderosas a puerta cerrada, como Google, OpenAI y Anthropic. Algunos se han referido a los problemas de seguridad asociados a los modelos de IA de código abierto, ya que cualquiera podría hacer un mal uso de ellos. Otros, como el científico jefe de Meta AI, Yann LeCun, que supervisó el desarrollo del modelo de código abierto Llama 2 de Meta, son partidarios de realizar pruebas de estrés de la IA de código abierto de forma abierta y transparente.

Los grandes modelos lingüísticos de código abierto alcanzarán el nivel de los grandes modelos lingüísticos de código cerrado en 2024“, declaró Clement Delangue en una rueda de prensa.

Una división interna se hizo pública a finales de noviembre, cuando el CEO de OpenAI, Sam Altman, fue destituido de la empresa por su consejo de administración, que alegó que no había sido “sincero” con sus declaraciones al consejo. Pocos días después, fue restituido en su anterior cargo de CEO, después de que los empleados amenazaran con abandonar la empresa si Altman no regresaba. La empresa también incorporó nuevos consejeros a su consejo, entre ellos Bret Taylor y Larry Summers.

Según Delangue, las preguntas clave que quedan por responder en 2024 giran en torno a la economía de la IA, concretamente sobre cómo conseguirán estas nuevas empresas de IA obtener márgenes de beneficio y hacer ganar dinero a sus inversores. Al depender de las GPU de gigantes de los semiconductores como Nvidia y AMD, la mayoría de los modelos de IA son cada vez más costosos y tienen una gran huella de carbono, ya que necesitan ser entrenados con grandes cantidades de datos. “En 2024, la mayoría de las empresas se darán cuenta de que los modelos más pequeños, baratos y especializados tienen más sentido para el 99% de los casos de uso de la IA”, afirma Delangue.

Este artículo fue publicado originalmente en Forbes US

Lectura recomendada: Videojuegos: estos son los lanzamientos que se esperan para 2024 después de un año histórico