Ciencia y tecnologíaMiscelánea

Inteligencia Artificial podría ser riesgo para la “extinción humana” según ex empleados de OpenAI

OpenAI con ChatGPT y otras plataformas de Inteligencia Artificial (IA) podrían representar un peligro de extinción humana.

Existe una seria incertidumbre sobre el futuro que le depara a la humanidad con los sistemas potenciados por Inteligencia Artificial (IA) como ChatGPTGoogle Gemini y similares. Pero en un giro inquietante de todo este asunto resulta que ahora un grupo de trabajadores actuales y anteriores de importantes empresas del Silicon Valley, que se dedican justamente a ese ramo en desarrollo, han firmado una perturbadora carta abierta en la que advierten que, sin las medidas regulatorias adecuadas, la IA podría representar una amenaza de “extinción humana”.

La misiva, de acuerdo con lo que reporta Yahoo! News, ha sido firmada por 13 personas, la mayoría de ellas ex empleados de empresas como OpenAI, Anthropic y DeepMind de Google, aunque también habría algunos pocos trabajadores activos, y en su texto los sujetos manifiestan que los investigadores de IA necesitan más protección para poder expresar sus críticas a los nuevos desarrollos. Así como buscar la opinión del público y de los responsables de las políticas sobre la dirección de cada innovación en este campo:

“Creemos en el potencial de la tecnología de IA para ofrecer beneficios sin precedentes a la humanidad. También entendemos los graves riesgos que plantean estas tecnologías. Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana”.

Lo que nos brinda una perspectiva de lo delicado que es el asunto.

La extinción humana: el peligro máximo de la Inteligencia Artificial para la humanidad

Los autores de la carta afirman que las empresas que desarrollan potentes tecnologías de IA, incluyendo a los sistemas de Inteligencia Artificial General (AGI), “tienen fuertes incentivos financieros para evitar una supervisión efectiva”, tanto de sus propios empleados como del público en general. Cosa que podemos constatar de manera obvia la ver la poca o nula transparencia con la que ha operado OpenAI en los últimos años.

De hecho, reportes recientes compartidos aquí mismo en FayerWayer, derivado de filtraciones internas de la propia institución, revelan que Sam Altman habría desarrollado y lanzado ChatGPT prácticamente a escondidas de la junta directiva, que se habría enterado de la existencia del proyecto hasta que se convirtió en una sensación global.

Sam Altman, CEO de OpenAI, la empresa responsable de ChatGPT, revela cómo fue conocer a Steve Jobs.
Imagen: WIRED | Sam Altman, CEO de OpenAI, la empresa responsable de ChatGPT, revela cómo fue conocer a Steve Jobs.

La carta, a final de cuentas, pide a las empresas que se abstengan de castigar o silenciar a los empleados actuales o anteriores que hablen sobre los riesgos de la Inteligencia Artificial, en clara referencia a un escándalo de este mes surgido al interior de OpenAI, donde a los empleados que renunciaban se les obligaba a elegir entre perder el capital adquirido o firmar un acuerdo de “no menosprecio” sobre la empresa que nunca expiraba.

Pero ese no es un hecho aislado. La carta abierta surge tras una serie de controversias en donde OpenAI, parece que ocupa el principal lugar de situaciones conflictivas.

La carta abierta y el hecho de que OpenAI siga siendo centro de estos debates ponen de relieve la necesidad de hablar más abiertamente sobre los riesgos y beneficios de la IA.