Tecnología

Exempleado de OpenAI alerta sobre los riesgos de una carrera por crear una superinteligencia artificial

Exempleado de OpenAI alerta sobre los riesgos de una carrera por crear una superinteligencia artificial
Redacción: Amairany Ramírez

Un exempleado de OpenAI, que recientemente firmó una carta junto con otros empleados de la empresa creadora de ChatGPT para denunciar la opacidad sobre los posibles riesgos de la inteligencia artificial (IA), ha señalado el peligro de una carrera en el sector por desarrollar una superinteligencia artificial (IAG) que sea tan o más inteligente que el ser humano. Carroll Wainwright, quien renunció la semana pasada a su puesto en el equipo de alineamiento práctico y superalineamiento de OpenAI, compartió su preocupación con EFE. Wainwright formaba parte del equipo encargado de asegurar que los modelos más potentes de OpenAI fueran seguros y alineados con los valores humanos. Tras el sorprendente éxito del chatbot ChatGPT, Wainwright se unió al equipo de superalineamiento para investigar cómo mantener el control sobre los modelos cada vez más inteligentes que desarrollaba OpenAI. A diferencia de la IA generativa, que puede reproducir acciones humanas como escribir o dibujar, la IAG sería capaz de comprender la complejidad y el contexto de sus acciones. Aunque esta tecnología aún no existe, las predicciones sobre su llegada varían. Algunos expertos, como Elon Musk, creen que podría ser una realidad en dos años, mientras que Robin Li, director ejecutivo de Baidu, una de las mayores tecnológicas de China, estima que podría tardar una década. Wainwright, por su parte, considera que la IAG podría surgir en unos cinco años. “¿Seguro que sucederá en cinco años? No, pero creo que es posible. También es posible que lleve mucho más tiempo. Pero si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serio”, enfatizó. 

La carta firmada por Wainwright y otros empleados de OpenAI destaca la necesidad de una mayor transparencia y cautela en el desarrollo de tecnologías de IA avanzadas, advirtiendo sobre los riesgos que podría conllevar una carrera desenfrenada hacia la creación de una superinteligencia artificial. 

 

¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ

Conoce nuestra red ANCOP Network AQUÍ

junio 2024
D L M X J V S
 1
2345678
9101112131415
16171819202122
23242526272829
30