El director ejecutivo de OpenAI dice que a medida que la firma implemente la verificación de edad en diciembre, permitirá incluso más contenido "como erótica para adultos verificados".

ChatGPT proporcionará contenido para adultos verificados a finales de este año, incluyendo “Erotica”, dijo el martes el director ejecutivo de OpenAI, Sam Altman, aliviando las restricciones anteriores impuestas al chatbot después de que OpenAI reconociera que su producto ampliamente utilizado no detectaba signos de angustia mental o emocional.

Datos clave

Altman, en una publicación en X, dijo que a medida que OpenAI implemente la verificación de edad en diciembre, la compañía permitirá incluso más contenido “como Erotica para adultos verificados” en ChatGPT a medida que OpenAI cambia a un principio de “[tratar] a los usuarios adultos como adultos”.

OpenAI dijo en agosto que restringiría el comportamiento de ChatGPT después de decir que su chatbot “no fue capaz de reconocer signos de delirio o dependencia emocional”, y agregó nuevas medidas de seguridad como pedirle a los usuarios que tomen descansos de conversaciones largas y optar por no brindar asesoramiento directo, y en su lugar dirigir a los usuarios a “recursos basados ​​en evidencia cuando sea necesario”.

“Hicimos ChatGPT bastante restrictivo para asegurarnos de que estábamos siendo cuidadosos con los problemas de salud mental”, dijo Altman el martes, y agregó que OpenAI se dio cuenta de que esto lo hacía “menos útil/agradable para muchos usuarios” sin esos problemas, optando por “relajar de forma segura” las restricciones anteriores después de que Altman dijera que mitigaban los “graves problemas de salud mental”.

Altman no especificó cómo OpenAI aliviaría las restricciones para ChatGPT.

Los usuarios no podrían acceder a contenido erótico a menos que lo soliciten, dijo Altman en una publicación separada , y luego reconoció que OpenAI seguirá trabajando para proteger a los usuarios en “estados mentalmente frágiles” y utilizará “herramientas mejoradas para eso”, pero los usuarios que no caen en esa categoría deberían tener una “gran libertad en cómo usan ChatGPT”.

Altman dijo que si los usuarios quieren que ChatGPT responda de una “manera muy humana” o actúe como un amigo, el chatbot debería hacerlo “sólo si tú lo deseas”.

Tangente

El martes por la mañana, OpenAI anunció la formación de un consejo sobre bienestar e IA para orientar la respuesta de la compañía ante situaciones complejas o delicadas. El consejo incluye un equipo de ocho investigadores y expertos con décadas de experiencia en el estudio de cómo la tecnología afecta la salud mental y las emociones, a quienes se les preguntará qué medidas de protección serían las más adecuadas para apoyar a los usuarios de ChatGPT, según OpenAI.

Dato sorprendente

ChatGPT no sería el primer chatbot en lanzarse al erotismo: xAI de Elon Musk ha presentado “compañeros” de IA en los últimos meses, algunos de los cuales, según se informa, están diseñados para volverse sexualmente explícitos.

Antecedentes clave

A principios de este mes, OpenAI insinuó que su ChatGPT pronto presentaría contenido para adultos una vez que se implementaran la verificación de edad y los controles apropiados. La decisión anterior de la compañía de restringir el comportamiento de ChatGPT se produjo tras una demanda que alegaba que el chatbot contribuyó al suicidio de un adolescente. OpenAI, propiedad de Altman, y otras empresas de inteligencia artificial han sido objeto de constantes críticas en los últimos años a medida que sus chatbots se han vuelto más populares, incluso entre los niños. Algunos grupos de salud mental y seguridad infantil han exigido a OpenAI que imponga más restricciones a ChatGPT, argumentando que el chatbot se utiliza cada vez más en momentos de angustia emocional y podría exponer a los niños a contenido sexualmente explícito. Por otro lado, expertos han afirmado que la tecnología podría representar una amenaza psicológica para los usuarios más jóvenes que buscan validación emocional.

A qué prestar atención

La Comisión Federal de Comercio anunció el mes pasado que investigaría a Alphabet, Meta, OpenAI, xAI y otras empresas sobre cómo protegen a niños y adolescentes de los impactos potencialmente negativos de sus chatbots. La investigación cubrirá en gran medida qué medidas han tomado las empresas para proteger a los niños cuando los chatbots actúan como compañeros, incluyendo cómo limitan el uso y cómo se informa a los usuarios de los riesgos potenciales. Los funcionarios de la FTC dijeron que los chatbots pueden “imitar efectivamente las características humanas” como las emociones o las intenciones, lo que sugiere que los niños y adolescentes pueden “confiar y formar relaciones con los chatbots”. El anuncio de la investigación siguió a una advertencia del senador Josh Hawley, republicano por Missouri, quien dijo que investigaría el chatbot de Meta después de que Reuters informara que las pautas de la compañía Meta consideraban “aceptable” que su chatbot mantuviera conversaciones románticas con niños. Meta ha dicho que revisaría sus políticas, diciendo a Reuters que “tales conversaciones con niños nunca deberían haberse permitido”.

Este artículo fue publicado originalmente por Forbes US

Siga a Forbes Colombia desde Google News