martes, septiembre 16, 2025
spot_img
spot_img

Editoriales

Alertan sobre el peligro de una competencia para desarrollar inteligencia artificial más avanzada que la humana

Un ex empleado de OpenAI que firmó una carta junto con otros trabajadores de la empresa creadora de ChatGPT para denunciar la falta de transparencia en los posibles riesgos de la inteligencia artificial (IA) advierte sobre la amenaza de una carrera en el sector para desarrollar una super IA o inteligencia artificial general (IAG) que sea igual o más inteligente que los humanos.

Carroll Wainwright renunció recientemente a su cargo en el equipo de alineamiento práctico y superalineamiento de OpenAI, cuya función es garantizar que los modelos más avanzados de la empresa sean seguros y estén alineados con los valores humanos.

Una IA más inteligente que los humanos

Cuando se lanzó con éxito el 'chatbot' ChatGPT, Wainwright se unió a un equipo de superalineamiento para investigar cómo mantener el control sobre los modelos cada vez más inteligentes de OpenAI. A diferencia de la IA generativa, la IAG no solo puede replicar acciones humanas como escribir o dibujar, sino también comprender la complejidad y el contexto de esas acciones.

A pesar de que esta tecnología aún no existe, hay predicciones sobre su creación en uno o dos años. Wainwright sugiere que podría ser una realidad en unos cinco años y subraya la importancia de tomarse en serio cualquier avance potencialmente transformador.

Sin embargo, su renuncia y firma de la carta no se debió a encontrar algo aterrador, ya que OpenAI actualmente solo está explorando la posibilidad de desarrollar esta tecnología.

El cambio de OpenAI

La principal razón de su renuncia fue el cambio de enfoque de la empresa, que pasó de ser un laboratorio de investigación sin fines de lucro a centrarse en la obtención de beneficios, especialmente después del éxito de ChatGPT en 2022.

Wainwright señala que la mayoría de las acciones de OpenAI ahora están motivadas por incentivos de lucro, lo cual le preocupa.

Los principales riesgos de la IAG

Wainwright destaca tres riesgos de la IAG: la sustitución de trabajadores por máquinas, el impacto social y mental en las personas que podrían depender de una IA personal, y el desafío de mantener el control sobre la tecnología.

El ex empleado cree que las grandes empresas de IA cumplirán con las regulaciones, pero actualmente la falta de estas regulaciones es un problema. Por eso, los trabajadores del sector solicitan la creación de un sistema para que puedan alertar sobre riesgos a un organismo independiente.

Wainwright enfatiza que el desafío no es la seguridad en la IA, sino la rapidez con la que las empresas compiten entre sí, principalmente entre OpenAI y Google.

Aunque el Parlamento Europeo ratificó una ley de IA en la Unión Europea y Estados Unidos está investigando a empresas como Microsoft, OpenAI y Nvidia por posibles monopolios en el sector, aún queda mucho por hacer en cuanto a la regulación de esta tecnología.

Website |  + posts

Somos EL TESTIGO. Una forma diferente de saber lo que está pasando. Somos noticias, realidades, y todo lo que ocurre entre ambos.

Todo lo vemos, por eso vinimos aquí para contarlo.

RELACIONADAS