Inversionistas multimillonarios de la era del internet están ahora enfocados en una guerra de palabras e influencia para determinar si el futuro de la IA será de seguridad concentrada o de avance sin restricciones. Lo que está en juego no podría ser más importante.

Vinod Khosla, que viste sencillo con un cuello negro y un blazer, a pesar del calor de mayo, miraba a la multitud que llenaba el auditorio del Capitolio de los Estados Unidos. Antes de comenzar el debate, dejó claro lo que estaba en juego: “Ganar la carrera de la inteligencia artificial significa tener poder económico, y eso te permite influir en las políticas sociales e incluso en la ideología”.

El siguiente punto de Khosla -que la destreza de la IA en desarrollo de China podría representar una amenaza para las próximas elecciones estadounidenses- resuena entre la mezcla agresiva de empleados del Congreso y expertos en políticas presentes en la sala para la reunión de IA y defensa de un día del Hill & Valley Forum. Las implicaciones de la IA para la seguridad nacional, especialmente en manos de los adversarios de Estados Unidos, ocupan un lugar preponderante allí. Pero las palabras de Khosla vienen acompañadas de un llamado a la acción para bloquear nuestros modelos de IA líderes de un uso más amplio que los ponga en el centro de un debate más amplio y feroz en Silicon Valley.

En lo que sí coinciden el ex director general de Sun Microsystems y fundador de Khosla Ventures y sus compañeros inversionistas y empresarios es en que la inteligencia artificial ha desencadenado una revolución tecnológica a la par de la de los computadores, o incluso, según su compañero multimillonario y socio de Greylock, Reid Hoffman, la del automóvil o la máquina de vapor. Un médico virtual barato en cada smartphone, un tutor gratuito para cada niño. La IA puede servir como un gran ecualizador, un código de trampa deflacionario, que puede ayudar a salvar vidas y reducir la pobreza. “Podemos liberar a la gente de la monotonía, de la servidumbre de trabajos como una cadena de montaje ocho horas al día durante 40 años”, dice Khosla, de 69 años.

Pero esos sueños podrían tener un costo terrible, con consecuencias imprevistas potencialmente peores que las que acompañaron a los anteriores momentos decisivos de la tecnología, como una carrera armamentística distópica de la IA con China. Si las redes sociales nos trajeron guerras culturales y manipulación de la verdad, ¿qué daños colaterales podrían acompañar a la IA?

Para Khosla, Hoffman y un poderoso grupo de líderes tecnológicos, hay una forma clara de mitigar las consecuencias lamentables e involuntarias: controlar el desarrollo de la IA y regular su uso. Los gigantes Google y Microsoft están a bordo, junto con el fabricante de ChatGPT, OpenAI, en el que tanto Khosla como Hoffman fueron inversionistas iniciales. Su opinión de que son necesarios los controles para alcanzar el potencial utópico de la IA también es compartida por el presidente Biden, a quien el dúo de capital riesgo dona. También resonó en el presidente francés, Emmanuel Macron, que invitó a Hoffman a desayunar el otoño pasado para hablar de lo que él llama un nuevo “motor de vapor de la mente”.

“¿Cómo ayudamos a muchas personas buenas, como los médicos, y a pocos malos, como los criminales?”, reflexiona Hoffman, de 56 años, cofundador de LinkedIn, sobre el desafío. “Mi opinión es encontrar la forma más rápida de acelerar mientras asumimos riesgos inteligentes, reconociendo al mismo tiempo esos riesgos”.

Pero una facción cada vez más vocal está haciendo todo lo posible para frustrar a Khosla, Hoffman y todo lo que representan, liderada por Marc Andreessen, de 52 años, cofundador de Netscape y de la empresa de capital riesgo A16z. Dentro de la sociedad de Andreessen y su banda de absolutistas del código abierto -otro grupo que cuenta entre sus miembros a los directores generales de empresas emergentes de IA de código abierto Hugging Face y Mistral, el científico jefe de IA de Meta, Yann LeCun, y el director general de Tesla y propietario de X, Elon Musk (a veces)- ese tipo de conversaciones sobre desastres y riesgos a nivel estatal se considera a menudo un juego descarado por parte de los primeros poseedores del poder de la IA para mantenerlo.

“No hay ningún problema de seguridad. Los riesgos existenciales no están con la tecnología actual”, dice LeCun. “Si estás a la cabeza, dices que hay que regular porque es peligroso, así que mantenlo cerrado”, coincide el inversionista en IA Martin Casado, colega de Andreessen. “Esa es la retórica clásica de la captura regulatoria. Es una retórica que la gente utiliza para cerrar las cosas”.

En lugar de esto, Andreessen y sus aliados visualizan un futuro optimista en el que la IA previene enfermedades y la mortalidad temprana, y todos los artistas y empresarios trabajan con un asistente de IA para mejorar sus trabajos. La guerra, sin sangrientos errores humanos, tendrá menos bajas humanas. El arte y las películas apoyadas por IA aparecerán en todas partes. En un manifiesto que detalla su posición, el año pasado, Andreessen, quien rechazó una solicitud de entrevista para este artículo, sueña con un paraíso de código abierto, sin barreras regulatorias que ralenticen el desarrollo de la IA o barreras burocráticas que protejan a las grandes empresas a expensas de las startups.

Los tres inversionistas multimillonarios aparecen en la Lista Midas de este año de los mejores inversionistas tecnológicos del mundo por millones que van más allá de la inteligencia artificial: Hoffman en el número ocho, Khosla en el nueve y Andreessen en el 36; pero es en la categoría emergente donde su influencia se siente más aguda. Estos líderes prominentes de la última revolución tecnológica ahora están impulsando sus puntos de vista sobre los temas clave de lo que viene.

“Una bomba afecta un área. La IA afectará todas las áreas simultáneamente”.

¿Innovación segura o acuerdo anticompetitivo? ¿Tecno-utopía o salvaje caos? Hable con los autoproclamados portavoces de cualquier bando y encontrará opiniones en gran medida opuestas. Las partes involucradas ni siquiera pueden ponerse de acuerdo sobre quién es quién: todos son optimistas, excepto el uno para el otro. Para los “aceleradores” como Andreessen, cualquiera que quiera reducir la velocidad al acercarse a las esquinas, como lo defiende Hoffman, es un “decel” (un término despectivo para los que abogan por un enfoque cauteloso de la IA); los académicos y líderes que han llamado a la IA una amenaza existencial para la humanidad son “pesimistas”. Hoffman, mientras tanto, dice que se ha llamado a sí mismo un tecno-optimista desde mucho antes de que Andreessen convirtiera el término en un credo. “Aprecio que Marc toque el tambor”, dice. “Soy mucho más juicioso en el código abierto que él”.

En lo qué sí están de acuerdo: el argumento que prevalezca influirá en el futuro de lo que Andreessen llama “posiblemente lo más importante y mejor que nuestra civilización haya creado jamás”. Y, de todos modos, hay mucho dinero por ganar.

En mayo de 2023, el CEO de OpenAI, Sam Altman, apareció en el Capitolio para una reunión del subcomité del Senado sobre IA. La esencia de su mensaje: regulación. Para sus oponentes, este fue el momento de sinceridad que habían estado esperando. Tres meses antes, Musk, quien había cofundado y financiado OpenAI cuando aún era una organización sin fines de lucro de código abierto, había recurrido a X para criticar la reciente inyección de capital multimillonario de Microsoft a OpenAI, que ahora es una empresa cerrada que busca el máximo beneficio y está controlada por Microsoft, según Musk.

Para Khosla y Hoffman, quienes se reunieron con Altman al menos una vez para hablar de estrategia, pero que por lo general se mueven en círculos separados, la disposición de OpenAI a ceder es la manera de lograr resultados. Ya sea que Hoffman esté hablando con Biden, el Papa Francisco o la Secretaria de Comercio de Estados Unidos, Gina Raimondo, una colaboradora frecuente en los últimos meses, tiene preguntas similares: ¿Cómo cambiará la vida de los ciudadanos debido a la IA? ¿Qué pasará con sus trabajos? ¿Cuándo deberían estar entusiasmados por los beneficios o cautelosos ante los riesgos? “Tienes que demostrar que entiendes cuál es su juego principal y que pueden confiar en ti para resolverlo”, dice Hoffman. “Si tu enfoque con el Gobierno es decir ‘quítate de mi camino’, entonces no estás ayudando con su juego”.

Una avalancha de apariciones en podcasts, publicaciones en LinkedIn e incluso un libro sobre el tema asistido por IA ayudan a Hoffman a demostrar que es coherente en sus posiciones, dice. También es importante aceptar que muchos ciudadanos, desde artistas y académicos hasta empresarios y científicos, podrían no compartir la opinión de que el desarrollo de la IA sea algo bueno. Gracias a la ciencia ficción, muchos piensan en la IA que sale mal como robots asesinos o una inteligencia sobrehumana que decide acabar con la humanidad. “Siento una profunda empatía por la preocupación en torno a la IA”, dice Hoffman. “Pero es como decir: ‘no quiero que los hermanos Wright suban al aire hasta que sepamos cómo no tener accidentes de avión’. Simplemente no funciona de esa manera”.

Khosla dice que él y Hoffman están en “lugares muy similares” en sus puntos de vista políticos. “Creo que un enfoque equilibrado es mejor para la sociedad, reduciendo el riesgo mientras se preserva el lado positivo”, dice. El coanfitrión de eventos para recaudar fondos para Biden en Silicon Valley, durante este ciclo de campaña, presentó un comentario a la Oficina de Derechos de Autor de los Estados Unidos en octubre, en defensa de los modelos de IA que se entrenan con material protegido por derechos de autor (con opciones de exclusión).

Pero más recientemente, Khosla ha adoptado un tono más adverso, comparando el trabajo de OpenAI con el Proyecto Manhattan que construyó la bomba atómica. (En X, le planteó la pregunta directamente a Andreessen: ¿Seguramente no habrías hecho eso de código abierto?) Si no se controla, ha argumentado Khosla, la IA representa un riesgo de seguridad aún peor. “Una bomba afecta a un área. La IA afectará a todas las áreas simultáneamente”, dice.

No es una bomba lo que le preocupa a Hoffman. Pero un modelo de IA de libre acceso podría entrenarse para generar y luego poner a disposición un arma biológica que podría acabar con 100 millones de personas. “Una vez que abres el código fuente de uno de estos problemas, no puedes dar marcha atrás”, dice. “Mi posición es: solucionemos esas cosas realmente urgentes que pueden tener un impacto masivo en millones. Puedes volver a meter al genio en la botella”.



Ellos consideran que una respuesta apropiada es una regulación “muy ligera” como la orden ejecutiva de Biden de octubre, que pedía una mayor supervisión de los creadores de modelos, incluido el intercambio de resultados de pruebas de entrenamiento y el trabajo para crear nuevos estándares de seguridad previos al lanzamiento. Pero eso no le sienta bien al campo de Andreessen. Las “Big Tech” (como Google y Microsoft) y las “New Incumbents” (OpenAI y Anthropic, fuertemente respaldados por Big Tech) tienen un objetivo común, ha afirmado Andreessen: formar un “cartel protegido por el Gobierno” que bloquea su “agenda compartida”. “Las únicas alternativas viables son Elon, las startups y el código abierto, todas bajo un ataque concertado… con muy pocos defensores”, escribió Andreessen en X.

Para Casado, quien vendió la startup de redes Nicira por más de US$1.000 millones a VMware en 2012, es una historia que él y Andreessen han visto antes: los legisladores, molestos por el poder acumulado por las compañías de redes sociales como Meta, todavía están librando la última guerra de regulación.

Es por eso que esta vez muchos ejecutivos de la tecnología están tratando de comportarse bien, incluso si simpatizan con el espíritu de código abierto y centrado en las startups, que durante mucho tiempo ha sido fundamental en Silicon Valley. Creen que es mejor autoimponerse reglas federales ahora que dejar que estados como California impongan sus propias reglas, o peor aún, la Unión Europea de mano dura, que aprobó su primera ley de inteligencia artificial en marzo.

“No puedo decirte cuántas veces hablo con alguien y me dice: ‘Martin, estoy de acuerdo contigo, pero van a regular algo, así que cedamos un poco. Vamos a tener una pérdida, así que dictemos la pérdida’”, dice Casado. “El debate es útil porque está obligando a la gente a redactar sus posiciones”, responde el cofundador de Anthropic, Jack Clark. “Silicon Valley clásicamente se subcompromete en las políticas hasta que es demasiado tarde”.

“Muéstrame los incentivos y te mostraré el resultado”. Esa idea, atribuida al difunto y legendario inversionista Charlie Munger, resume la posición de Sequoia en este enfrentamiento, dice el socio Pat Grady (Midas No. 81), quien ha invertido tanto en el repositorio de modelos Hugging Face y OpenAI, como en la startup de software legal de IA Harvey.

Ciertamente, hay una fuerte dosis de interés propio en las posiciones de Hoffman, Khosla, Andreessen y otros en la primera línea ideológica de la IA. El cheque inicial de US$50 millones de Khosla para OpenAI eventualmente podría valer 100 veces más. También ha respaldado empresas en Japón e India, como Sarvam AI, con sede en Bengaluru, que están desarrollando sus propios modelos soberanos. Un beneficio adicional: actuar como refugio de la influencia de China. “Esa es parte de la razón por la que creamos Sarvam AI, para crear un ecosistema de IA dentro de nuestro país, para que no dependas” de China o Estados Unidos, dice el CEO Vivek Raghavan.

Hoffman invirtió en la organización sin fines de lucro OpenAI a través de su fundación, no de su firma Greylock. Pero tiene vínculos estrechos con Microsoft, que adquirió LinkedIn por US$26.000 millones y donde forma parte de la junta directiva, y fue un corredor clave de la profunda relación de Microsoft con OpenAI. Meses antes de la inversión multimillonaria del gigante tecnológico en enero de 2023, Hoffman había organizado una reunión de ejecutivos de ambas compañías, incluidos Altman y el CEO de Microsoft, Satya Nadella, en la casa del cofundador Bill Gates. También ha trabajado con Adept AI, una startup respaldada por Greylock que ha recaudado un total de US$415 millones para construir asistentes de trabajo de IA. Y en 2022, Hoffman cofundó Inflection AI con su amigo cercano y cocreador de Google DeepBrain, Mustafa Suleyman, quien recientemente se marchó para dirigir los esfuerzos de IA de consumo en Microsoft.

Andreessen también está involucrado ideológica y financieramente. Es miembro de la junta directiva de Meta, que convirtió en código abierto su competidor de GPT-3, Llama, cuyas versiones más recientes se lanzaron con gran éxito en abril. En diciembre del año pasado, durante el mismo año en que supuestamente compró acciones de OpenAI, la firma de capital A16z lideró una ronda de inversión de más de US$400 millones en su rival de código abierto más popular, Mistral, con sede en París (ahora, según se informa, recauda nuevos fondos con una valoración de US$6.000 millones). La firma se negó a comentar sobre sus acciones de OpenAI. Mientras tanto, el equipo de 27 expertos legales y de políticas internos de A16z ha ayudado a elaborar comentarios públicos recientes a la Comisión Federal de Comercio (FTC) y una carta abierta a la administración de Biden advirtiendo sobre las implicaciones de su orden ejecutiva para las startups de código abierto como Mistral.

El campo del código abierto y en contra de la regulación no ha dejado de quejarse de que están en desventaja. “Los pesimistas están ganando. Están mucho más organizados”, dice Bill Gurley, inversionista de Benchmark y clasificado en la Lista Midas, quien cree que Google, Microsoft, OpenAI y Anthropic están asustados por la rapidez con la que las alternativas de código abierto se están poniendo al día, lo que arriesga que sus costosos modelos se conviertan en productos básicos. “No ha habido este esfuerzo concertado en torno a la nueva tecnología en Washington, con la excepción de Sam Bankman-Fried”, dice, mencionando al ex director ejecutivo condenado del exchange de criptomonedas en bancarrota FTX.

En OpenAI, el director de operaciones, Brad Lightcap, se ríe de tales acusaciones como “pura palabrería”: “No sé si estaría de acuerdo, pero estamos acostumbrados”, dice. Suleyman, de Microsoft, responde que si bien pueden discutir “unos pocos grados a la izquierda o la derecha”, los líderes tecnológicos que apoyan el potencial de la IA están en última instancia en el mismo barco. Google no respondió a una solicitud de comentarios. Pero los ojos del normalmente diplomático Hoffman destellan ante la fanfarronería de Gurley. “Me hubiera encantado que Bill se uniera a mí en la junta de Mozilla durante 11 años y que predicara con el ejemplo”, le dice a Forbes, lanzando un improperio. “No te conviertas en el Sr. Código Abierto de última hora solo porque se ve bien para tus inversiones”.

Por supuesto, seguir el propio interés es una gran parte de la responsabilidad fiduciaria de una empresa pública, señala Mike Volpi (Midas No. 33), socio de Index Ventures y director de la junta directiva de Cohere, un unicornio de modelos de IA centrado en el negocio. Volpi dice que ve la preocupación de que los fabricantes de modelos más grandes estén usando su influencia para asegurar un liderazgo temprano como una explicación parcial “válida”. Pero como proveedores más populares de dichas herramientas para los consumidores, señala, también buscarán naturalmente abordar los temores de amplios sectores de la población que no están convencidos de que la IA sea algo tan bueno en general. “Tienen mucha más potencia de fuego, pero también atienden a más personas”, dice.

Luego está Musk, un partidario vocal del lado del código abierto, el hombre a veces más rico del mundo pidió en marzo de 2023 una pausa de seis meses en el desarrollo de modelos de IA por motivos de seguridad, lo más “catastrófico” que se puede pedir. No sucedió, y cuatro meses después, Musk anunció su propio competidor de OpenAI, xAI, y luego demandó a sus antiguos colaboradores por desviarse de su misión. (OpenAI se refirió a una publicación de blog en marzo que decía “tenemos la intención de desestimar todos los reclamos de Elon” y se negó a hacer más comentarios). xAI estaba alcanzando una valoración de US$18.000 millones, similar a la de Anthropic, en mayo.

Un fundador, en la audiencia de la charla de Khosla en Washington, le comentó a Forbes que hay una ironía en juego: aquellos más optimistas sobre las capacidades de la IA son a menudo los más preocupados por su mal uso. Para ellos, bloquear sus modelos líderes y establecer un marco regulatorio ahora podría significar, literalmente, la vida o la muerte para millones. Sus rivales, que creen que estos temores son exagerados, son posiblemente más realistas sobre el impacto dramático que tendrá la IA.

“O la IA es una gran amenaza existencial aterradora y los grandes laboratorios de IA necesitan ser nacionalizados y militarizados ahora mismo“, publicó Andreessen en marzo, “o la IA es solo software y matemáticas, y el alarmismo y la presión para la regulación deben detenerse. Una cosa u otra”.

Andreessen ha dicho que asume que los agentes chinos ya están descargando actualizaciones de las principales empresas de IA de Estados Unidos todas las noches. Por lo tanto, restringir el acceso al modelo es como cerrar la puerta principal cuando los ladrones están dentro de la casa. En cambio, argumenta, Estados Unidos debería estar usando todo su poder para impulsar el dominio de la IA estadounidense, incluida la exportación a la propia China.

Para Hoffman y aquellos en el campo de la pro-regulación, la posibilidad de que otros conviertan un modelo en un arma no es razón para dejar “las llaves puestas en el encendido de un tanque”, como dice Clark de Anthropic. Al restringir el acceso a modelos de vanguardia, Estados Unidos puede no detener a los adversarios de sus propios avances, y mucho menos de lo que elijan hacer con ellos. Pero puede mantenerlos a la caza, argumenta Khosla. “No compro el argumento de que el gato ya está fuera de la bolsa”, dice. En cuanto a la influencia global, muchas herramientas de IA de código abierto seguirán estando disponibles, agrega, y las demás se podrán licenciar comercialmente. “El resto del mundo está siguiendo las señales de lo que está sucediendo en Estados Unidos”.

Un futuro de innovación feroz con consecuencias inimaginablemente graves. Un panorama tecnológico sofocado en el que la innovación ha sido restringida por unos pocos demasiado cautelosos. Ninguno de los dos bandos cree que el futuro del otro sea un resultado realista; ambos argumentan que, si su razonamiento prevalece, no hay necesidad de elegir.

Pero todos sienten una sensación de urgencia, ya sea para dar forma a la conversación con los legisladores o para garantizar que las partes interesadas menos poderosas no se queden atrás. Fei-Fei Li, pionera en el campo y codirectora del Instituto de IA Centrada en el Humano de Stanford, dice que siente una “verdadera preocupación” por lo que las restricciones regulatorias significan para la academia y el sector público. “Incluso en una selva tropical, de vez en cuando los árboles grandes tienen que encontrar formas de permitir que la luz del sol llegue al nivel inferior para que haya una floración mucho mayor”, advierte Li.

Hoffman se muestra más optimista. “El juego está en marcha, y todos queremos asegurarnos de que salgan las cosas bien para la humanidad”, responde. “Creo que es muy pronto, y cualquiera que crea que sabe la forma correcta de las políticas en este momento se está engañando a sí mismo o a ti”, agrega. “Tenemos que aprenderlo juntos”.

Este artículo fue publicado originalmente por Forbes US

Siga a Forbes Colombia desde Google News