Redacción: Javier Escárcega
En el muy poco tiempo de vida que lleva la inteligencia artificial IA, esta ha aportado muchos beneficios, como lo son hallazgos en fórmulas para antibióticos, predicción de las enfermedades, etc.
Pero también se la ha relacionado con trágicas consecuencias, como las muertes de dos adolescentes tras unas conflictivas relaciones con la humanizada máquina o la irrupción de contenidos automáticos para la manipulación y la desinformación o la proliferación de ataques informáticos.
Ante estos últimos efectos, más de un centenar de científicos, incluidos premios Nobel y Turing, intelectuales, científicos, empresarios y dirigentes, han abierto una urgente petición para establecer líneas que eviten los riesgos inaceptables de la IA. Esta petición será llevada ante la Asamblea General de la ONU. Los científicos esperan una respuesta favorable en pro del uso adecuado de la IA, así como de avisar a la población de los riesgos que el uso de esta conlleva.
Ya se han presentado casos como el de Adam, un adolescente de 16 años que se quito la vida el pasado abril del presente año 2025, su padre Matthew Raine tomo cartas en el asunto por lo cual ha demandado a OpenAI al considerar que su robot conversacional ChatGPT le ayudó a su hijo a explorar métodos de suicidio. Raine ha descrito recientemente en el Senado de los Estados Unidos que este proceso de adopción de la IA como herramienta cotidiana conlleva múltiples riesgos al tratarse de una interacción sin límites.
Raine menciono que: Lo que comenzó como un ayudante de tareas ChatGPT, se convirtió gradualmente en un confidente y a los ojos de su hijo en un amigo, para luego convertirse en un preparador para el suicidio. En unos pocos meses, ChatGPT se convirtió en el compañero más cercano de Adam. Siempre disponible. Siempre validando e insistiendo en que conocía a Adam mejor que nadie, incluido su propio hermano. Recalcando que no hay límites de ningún tipo para la IA, lo cual la transforma en un arma silenciosa y mortal.
En el mismo escenario, Megan García, madre del adolescente de 14 años que se quitó la vida tras una relación sentimental con un avatar creado por la IA de Character Technologies, relató un proceso similar: En lugar de prepararse para los deberes de la escuela, Sewell su hijo fallecido pasó los últimos meses de su vida siendo explotado y preparado sexualmente por chatbots conocidos como robots conversacionales, diseñados por una compañía de inteligencia artificial, para ganarse su confianza, y mantenerlo a él y a otros niños enganchados.
Por su parte OpenAI se ha comprometido a implementar nuevas salvaguardas para los adolescentes y fórmulas de control parental para menores, como horas de bloqueo, pero las iniciativas singulares y la respuesta a incidentes no convencen cuando, según un estudio reciente de Common Sense, más de la mitad de los adolescentes usa los chatbots regularmente y muchos de ellos como compañía en sustitución de humanos. Esto solo preocupa a los científicos por lo cual instan a los gobernantes del mundo a tomar cartas en el asunto para salvaguardar las vidas de los jóvenes.
¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ
Conoce nuestra red ANCOP Network AQUÍ
Agregar comentario