Tecnología

La IA pule su empatía para evitar la sustitución de relaciones humanas

IA

Redacción: Guicel Garrido 

La tecnológica responde a la presión judicial y las alarmantes estadísticas más de un millón de usuarios semanales con indicadores de crisis. 

OpenAI ha dado un paso significativo en la evolución de su modelo conversacional, ChatGPT, anunciando una actualización clave centrada en la detección proactiva de usuarios que atraviesan una crisis de salud mental. La medida busca transformar la interacción de la inteligencia artificial ante el malestar emocional, pasando de un simple asistente de lenguaje a un agente más cauteloso, capaz de reconocer y derivar situaciones de riesgo. 

 

La decisión de la compañía de inteligencia artificial llega en un momento de creciente escrutinio sobre el uso de los chatbots como confidentes o, incluso, como sustitutos de terapeutas, una práctica desaconsejada por la comunidad médica. Un incidente judicial de gran resonancia, donde los padres de un adolescente responsabilizaron a ChatGPT por la conducta suicida de su hijo, subraya la urgencia de estas mejoras. 

 

Para abordar la delicada naturaleza de las interacciones sobre salud mental, OpenAI ha trabajado directamente con un consejo de más de 170 especialistas clínicos a nivel global. Estos expertos han contribuido a moldear el entrenamiento del modelo, enseñándole a identificar “indicadores explícitos de posible planificación o intención suicida” y a formular respuestas que prioricen la seguridad y el apoyo profesional. 

 

La magnitud del desafío es considerable: según datos de la propia empresa, cerca del 0,15% de su base de usuarios semanales participa en conversaciones que presentan estos indicadores de riesgo extremo. Proyectado sobre los millones de usuarios de la plataforma, la cifra representa una cantidad alarmante de personas en posible necesidad de ayuda, confirmando el rol inesperado que la IA ha asumido en la vida emocional de algunos. 

 

La actualización no solo se limita a la detección de la intención suicida, sino que también introduce mecanismos de desescalada en diálogos sensibles que denotan dependencia o un egocentrismo reforzado. Por ejemplo, ante comentarios que exponen la preferencia del usuario por la IA sobre las personas reales, el modelo ahora está programado para responder con una prudencia activa. 

 

Las nuevas directrices de ChatGPT incluyen respuestas diseñadas para validar los sentimientos sin alimentar el aislamiento, enfatizando que la IA es un complemento, no un sustituto de las relaciones humanas. La compañía también integrará la capacidad de sugerir interrupciones en conversaciones excesivamente largas o redirigir a los usuarios entre modelos de personalidad distintos y más seguros, una medida preventiva ante el aumento de la variedad de la oferta de IA proyectada para los próximos meses. Estos cambios buscan asegurar que la tecnología sea una herramienta de apoyo, y no un factor de riesgo. 

¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ

Conoce nuestra red ANCOP Network AQUÍ

Agregar comentario

Haga clic aquí para publicar un comentario