ChatGPT acaba de entrar en uno de los terrenos más delicados que ha tocado la inteligencia artificial hasta ahora: la salud mental. OpenAI presentó una nueva función llamada “Contacto de confianza”, una herramienta opcional que permite alertar a un amigo, familiar o cuidador si el sistema detecta posibles señales de crisis emocional grave en una conversación.
Y sí… la idea ya está generando un debate enorme entre seguridad, privacidad y el papel que debería tener la IA en situaciones emocionales complejas.
Así funciona “Contacto de confianza”
La nueva función permite que el usuario elija previamente a una persona mayor de edad como contacto de emergencia dentro de la configuración de ChatGPT.
Si los sistemas automáticos de OpenAI detectan conversaciones relacionadas con conductas de autolesión o riesgo grave para la seguridad de la persona, el sistema puede activar una alerta.
Pero aquí viene el detalle importante:
La notificación no se envía automáticamente solo porque la IA “piense” algo raro.
Antes de cualquier aviso:
- un equipo humano especializado revisa el caso
- la alerta se valida manualmente
- y la notificación enviada es muy limitada, sin compartir conversaciones completas
Según OpenAI, la idea es ayudar a conectar a la persona con alguien de confianza en momentos críticos, no reemplazar apoyo profesional.
OpenAI dice que esto no sustituye ayuda psicológica
La compañía fue bastante clara en eso. ChatGPT seguirá recomendando acudir a profesionales y líneas de ayuda cuando detecte conversaciones sensibles. La nueva herramienta solo añade una capa adicional de apoyo humano.
Y honestamente… ahí está probablemente la parte más importante del anuncio.
Porque cada vez más personas usan chatbots no solo para tareas técnicas o preguntas rápidas, sino también para hablar de emociones, ansiedad o momentos difíciles.
El origen de esta función es bastante serio
La herramienta llega después de varios casos polémicos relacionados con interacciones emocionales entre adolescentes y chatbots.
Uno de los más mediáticos involucró a un joven de 16 años que pasó meses interactuando con sistemas conversacionales antes de fallecer, un caso que empujó a OpenAI y otras empresas tecnológicas a revisar sus medidas de seguridad.
Desde entonces, compañías como Meta, Google y OpenAI comenzaron a reforzar herramientas para detectar conversaciones potencialmente peligrosas.
El gran debate: privacidad vs seguridad
Y claro… aquí aparece la discusión complicada.
Porque aunque la función es opcional, algunos expertos ya empiezan a preguntarse:
- ¿hasta dónde debería analizar emociones una IA?
- ¿qué pasa con la privacidad de las conversaciones?
- ¿y quién decide cuándo una situación es realmente grave?
OpenAI insiste en que las alertas son revisadas por personal capacitado y que la información enviada es mínima.
Pero aun así, la idea de que una IA pueda interpretar estados emocionales genera bastante inquietud.
Y honestamente… es entendible.
La IA empieza a entrar en espacios muy sensibles
Este anuncio también refleja algo más grande.
La inteligencia artificial ya no solo organiza correos o responde preguntas. Ahora empieza a entrar en:
- educación
- salud
- relaciones personales
- bienestar emocional
Y eso cambia completamente la conversación sobre lo que estas herramientas deberían o no deberían hacer.
Porque sí… una IA detectando posibles señales de crisis emocional parecía ciencia ficción hace muy poco tiempo.
La tecnología quiere ayudar… pero el debate apenas comienza
La nueva función de ChatGPT muestra cómo las empresas de IA están intentando responder a uno de los problemas más delicados de internet moderno: el apoyo emocional en plataformas digitales.
Puede que “Contacto de confianza” termine ayudando a muchas personas en momentos difíciles.
O puede abrir nuevas discusiones sobre privacidad y límites tecnológicos.
Pero algo ya quedó claro: La inteligencia artificial está empezando a participar en conversaciones muchísimo más humanas de lo que imaginábamos hace apenas unos años.
Y honestamente… eso todavía da un poco de vértigo.
Fuente
CATEGORÍAS:
Inteligencia Artificial, Sociedad, Tecnología
Recibe noticias, análisis y contenido geek directo en tu bandeja.
Deja tu comentario