Google planea añadir un sistema que dirija a los usuarios a las líneas de ayuda de salud mental cuando las conversaciones indiquen un riesgo de autolesión o suicidio.

Tras una oleada de demandas dirigidas a la industria de la IA, Google está implementando nuevas salvaguardas para su chatbot Gemini para detectar conversaciones potencialmente dañinas y signos de autolesión, incluyendo funciones integradas de apoyo a la salud mental.

Datos clave

Google planea añadir un sistema que dirija a los usuarios a las líneas de ayuda de salud mental cuando las conversaciones indiquen un riesgo de autolesión o suicidio, lo que permitirá al usuario chatear, llamar, enviar mensajes o visitar la web de la línea de ayuda en crisis.

La empresa también introdujo un módulo que muestra “La ayuda está disponible” durante las conversaciones sobre salud mental.

Junto con las nuevas funciones, Google comprometió 30 millones de dólares en los próximos tres años para apoyar líneas de ayuda globales en crisis, ampliando su capacidad de ofrecer asistencia inmediata y segura a personas necesitadas.

La empresa también está ampliando su colaboración con ReflexAI, incluyendo 4 millones de dólares en financiación e integrando Gemini en sus herramientas de formación para ayudar a las organizaciones a ampliar los servicios de apoyo en salud mental.

Antecedentes clave

Familias de varios estados han presentado demandas contra empresas de IA generativa, incluyendo Character.AI, OpenAI y Google, alegando que sus plataformas han contribuido a problemas de salud mental entre adolescentes y adultos. En marzo de 2026, Google fue víctima de una demanda federal por muerte injusta presentada por la familia de un hombre de 36 años de Florida que murió suicidado tras presuntamente estar influenciado por Géminis.

Estados que lideran la regulación de la IA

En respuesta a las crecientes preocupaciones, legisladores en varios estados han comenzado a moverse para regular el uso de la IA, especialmente en entornos de salud mental. Estados como Illinois, Nevada, California y Nueva York han introducido o aprobado medidas destinadas a limitar el papel de la IA en la toma de decisiones clínicas, exigiendo divulgaciones más claras cuando los usuarios interactúan con IA y estableciendo protecciones para menores. Otros estados, como Utah y Texas, han tomado medidas para supervisar el uso de la IA en la sanidad creando organismos reguladores o exigiendo a los proveedores que informen a los pacientes cuando la IA está involucrada en su atención y mantengan la supervisión humana.

Este artículo fue publicado originalmente en Forbes US