El chatbot de OpenAI está en la mira.
La Inteligencia Artificial ChatGPT, desarrollada por OpenAI, está en la mira de gobiernos, instituciones y empresas. A unos les preocupa la política de privacidad; a otros, su uso para hacer trampas. Pero también genera inconvenientes la información errónea que puede emitir.
Un grupo de empresas de España están restringiendo a sus trabajadores su utilización, de acuerdo con un reporte de El Mundo. Telefónica, BBVA y Redeia limitan o prohíben, según el caso, el acceso a ChatGPT.
El Mundo cita una comunicación de una de las compañías (no da el nombre), enviada a sus empleados. “Existe alta probabilidad de que la información que produzca la herramienta contenga sesgos o sea información errónea”, señala.
Mientras que Telefónica y Redeia no permiten ChatGPT para trabajar con información de la empresa, por riesgos con la protección, BBVA prohibió su uso con carácter general.
La decisión de las empresas españolas no es aislada. Recientemente, Samsung vetó a sus empleados el acceso a una Inteligencia Artificial por una fuga de datos.
El personal del gigante surcoreano, como una forma de hallar una solución de manera más sencilla, consultó con una IA tipo ChatGPT (no se especificó cuál), cargando un código confidencial en la plataforma.
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/metroworldnews/DKDW5TCSJBEH3AUPYHDJ3Z6SVM.jpg)
La fuga de datos perjudicó a Samsung, que posteriormente envió una circular interna: “Hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa (…) Le pedimos (a cada trabajador) que se adhiera diligentemente a nuestra pauta de seguridad”.
En caso de no hacerlo, puede ser despedido.
JP Morgan, Bank of America, Citigroup… y hasta Apple bloquearon el acceso a los chatbots tipo ChatGPT.
The Wall Street Journal especificó que, en el caso de Apple, obliga a sus trabajadores a no usar ni ChatGPT ni Copilot, esta última de Github (propiedad de Microsoft), con el fin de proteger sus proyectos secretos.