Las cosas no están pintando muy bien.
Geoffrey Hinton, Demis Hassabis, Dario Amodei, Kevin Scott, Bill Gates, Elon Musk y el mismísimo Sam Altman. Todos tienen en común que fueron impulsores en el crecimiento de la Inteligencia Artificial y ahora le temen. Sus firmas son constantes en los manifiestos apocalípticos sobre la tecnología.
Para ellos, ahora es necesaria una regulación antes de que la IA lleve a la humanidad a su fin. Antes de que ocurra la extinción.
¿Qué ocurrió para que esto sucediera?
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/metroworldnews/JL6XAWICHVDGFCGJPE2SINO7SA.jpg)
Dice:
“Mitigar el riesgo de extinción de la Inteligencia Artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Fin del comunicado.
Los temores de los “popes”: la IA es similar a las pandemias y la guerra nuclear
Hinton (el llamado “Padrino de la Inteligencia Artificial), Hassabis (CEO de Google Deepmind), Amodei (CEO de Anthropic), Bill Gates (hoy Microsoft está vinculada con OpenAI), Altman (CEO de OpenAI) y pare usted de contar. Todos firmaron el comunicado del Center for AI Safety, comparando a la tecnología con las pandemias y la guerra nuclear.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/metroworldnews/C3XZGTWLVNATVIARWAQEXSFZ2I.jpg)
“Creo que si esta tecnología sale mal, puede salir bastante mal y queremos hablar al respecto”, agregó. “Queremos trabajar con el gobierno para evitar que eso suceda. Pero tratamos de ser muy claros sobre cuál es el caso negativo y el trabajo que tenemos que hacer para mitigarlo”.
¿Cuáles son los motivos reales de este cambio de opinión sobre la Inteligencia Artificial?
Para algunos, que estas figuras firmen manifiestos apocalípticos sobre la IA es solo hipocresía, o un truco de relaciones públicas. En el caso de Elon Musk, se le acusa también de querer obtener una ventaja competitiva cuando solicita una paralización de las labores de las grandes compañías.
Ryan Calo, profesor de Derecho de la Universidad de Washington, es claro al respecto: este tipo de declaraciones busca desviar la atención de los reguladores de lo más importante, del día a día de las personas.
Es decir, cómo la IA afecta la calidad del trabajo, la cantidad de puestos de empleos, la protección de la privacidad, al medio ambiente… Aquí es donde tiene que estar el foco. No en si la IA lanzará una bomba atómica para extinguir la vida en el planeta.