La Comisión Federal de Comercio inició una investigación sobre Alphabet, Meta, xAI de Musk, OpenAI y otras empresas sobre cómo protegen a los menores de los impactos potencialmente negativos de sus chatbots.

La Comisión Federal de Comercio de EU (FTC) inició el jueves una investigación sobre Alphabet, Meta, xAI de Elon Musk, OpenAI y otras empresas sobre cómo protegen a los niños y adolescentes de los impactos potencialmente negativos de sus chatbots de inteligencia artificial, a medida que aumentan las preocupaciones de seguridad sobre la tecnología.

Datos clave

La FTC emitió solicitudes a Alphabet, Character Technologies, Instagram, Meta, OpenAI, Snap y xAI para que las empresas proporcionen información sobre cómo “miden, prueban y monitorean los impactos potencialmente negativos” de los chatbots de IA en niños y adolescentes, anunció la agencia .

La investigación cubrirá en gran medida las medidas que han tomado las empresas para proteger a los niños cuando sus chatbots de inteligencia artificial actúan como compañeros, incluido cómo limitan el uso y cómo se informa a los usuarios y a los padres de los riesgos potenciales asociados con los chatbots, dijo el regulador.

Los chatbots de IA pueden “imitar eficazmente características humanas” como emociones e intenciones mientras se comunican “como un amigo o confidente”, advirtió la FTC, sugiriendo que los niños y adolescentes pueden “confiar y formar relaciones con los chatbots”.

Ni Alphabet, Character Technologies, Meta, OpenAI, Snap ni xAI respondieron de inmediato a las solicitudes de comentarios de Forbes.

Tangente

El senador Josh Hawley, republicano por Missouri, anunció el mes pasado que investigaría el chatbot de inteligencia artificial de Meta, citando un informe de Reuters que señalaba un documento interno que indicaba que las directrices de la compañía consideraban “aceptable” que el chatbot de Meta mantuviera conversaciones románticas con menores.

El portavoz de Meta, Andy Stone, declaró a Reuters que la compañía estaba revisando sus políticas y que “tales conversaciones con menores nunca debieron haberse permitido”.

Hawley dio a Meta el 19 de septiembre como fecha límite para que presentara la documentación relacionada y afirmó que la investigación se centraría en si los productos de inteligencia artificial de Meta “permiten la explotación, el engaño y otros daños delictivos a menores”.

Antecedentes clave

Una investigación federal sobre los populares chatbots de IA recibió recientemente la aprobación de la Casa Blanca, según informó el Wall Street Journal la semana pasada.

El portavoz de la Casa Blanca, Kush Desai, declaró al Journal que el presidente Donald Trump se había “comprometido a consolidar el dominio de Estados Unidos en IA” y señaló que la administración Trump cumpliría este objetivo “sin comprometer la seguridad ni el bienestar del pueblo estadounidense”.

El escrutinio de los chatbots de IA ha fluctuado en los últimos años, pero se ha intensificado en las últimas semanas, ya que expertos han advertido que la tecnología podría representar una amenaza psicológica para los usuarios más jóvenes que buscan validación emocional.

OpenAI anunció el mes pasado que abordaría cómo ChatGPT manejaría “situaciones delicadas”, después de que una demanda alegara que el chatbot de IA contribuyó al suicidio de un adolescente.

Este artículo fue publicado originalmente en Forbes US

Siga a Forbes Colombia desde Google News