Usar ChatGPT puede sonar como una genial idea para volver más eficiente el trabajo en la oficina, pero la Inteligencia Artificial conlleva algunos riesgos.
Vivimos una nueva era, en donde las herramientas de Inteligencia Artificial (IA) como ChatGPT, nos guste o no, han llegado al mundo laboral para quedarse. Aunque existe la franca posibilidad de que no sea una práctica completamente recomendable, independientemente del punto de vista ético o de visión al futuro sobre el potencial de relevo de esta tecnología que podría aspirar a ocupar posiciones actualmente laboradas por seres humanos.
Su potencial para automatizar tareas, generar contenido creativo y responder preguntas muy específicas de forma rápida y eficiente es innegable, tenemos que ser honestos con ese detalle. Sin embargo, es importante ser consciente de los peligros que su uso puede conllevar, tanto para el un empleado cualquiera como para la empresa donde dicha persona trabaja.
La que sí, el uso de la Inteligencia Artificial de OpenAIy otros chatbots similares luce como un paraíso atractivo de absoluta eficiencia. Pero no todo es tan perfecto como aparenta en lo meramente superficial.
Los peligros de ChatGPT: el más importante es la seguridad de la información
Uno de los principales riesgos del uso de ChatGPT es la seguridad de todos los datos compartidos con la IA en cada petición o instrucción. Al interactuar con la herramienta, se comparte información que queda almacenada en sus servidores. Si bien la empresa asegura la confidencialidad de los datos, siempre existe un riesgo de fuga o filtración, especialmente si se maneja información sensible o confidencial.
Por lo mismo es absolutamente recomendable y hasta indispensable, jamás compartir información privada delicada con el chatbot, desde datos bancarios de cada individuo hasta detalles que puedan representar un peligro para la compañía donde trabajamos si salen más allá de los confines internos. Si se lo dices a esa IA se lo están contando a medio mundo.
Los sesgos y alucinaciones también pesan
Toda Inteligencia Artificial Generativa, como ChatGPT, se entrena a partir de grandes cantidades de datos, pero por la naturaleza de ese mismo proceso muchas cosas pueden salir mal. Si bien esto le permite aprender patrones y generar respuestas coherentes a la plataforma, también puede llevar a la reproducción de sesgos presentes en los datos utilizados para su entrenamiento.
Esto significa que la herramienta puede generar información discriminatoria o inexacta, lo que puede tener consecuencias negativas para la empresa o para el trabajador individual.
En el caso particular de ChatGPT el riesgo más constante y reiterado es la generación de alucinaciones, con información absolutamente inventada o falsa. Donde su articulación es tan natural y convincente que cualquiera podría considerarla como cierta.
ChatGPT y todo OpenAI se distingue por su falta de transparencia
ChatGPT es una herramienta compleja que funciona como una suerte de caja negra. Donde hasta el momento no hay forma de saber con certeza cómo procesa la información y cómo llega a sus conclusiones, mucho menos qué le hace precisamente a cada cosa que compartimos con la IA.
Esta falta de transparencia dificulta la evaluación de la confiabilidad de la información que genera y limita la posibilidad de detectar y corregir errores. A la par que pone en un riesgo innegable cualquier dato confidencial o íntimo que le compartamos.
Si a eso le sumamos el historial de reciente de filtraciones contra su CEO, Sam Altman, donde parece que incluso creó y lanzó la Inteligencia Artificial a escondidas de su propia junta directiva, sobran los motivos para tomar algo de prudente distancia.
Existe la adicción a ChatGPT
Quienes han colaborado de cerca con gente enganchada a este tipo de plataformas podrá constatarlo sin lugar a dudas. El uso excesivo de ChatGPT puede generar una franca dependencia a la herramienta para realizar su trabajo.
Este fenómeno se ha convertido en un problema de mucho peso particularmente en el ámbito académico, donde los alumnos en lugar de adquirir conocimientos prefieren ayudar indirectamente a entrenar a la IA con sus asignaciones. A un grado tal que luego no pueden ya hacer las cosas por sí mismos.
Esta adicción puede llevar a una pérdida de habilidades y a una disminución de la creatividad y el pensamiento crítico.
Además, la herramienta no siempre es capaz de realizar tareas complejas o que requieren un juicio humano, por lo que su uso excesivo puede ser contraproducente.
A eso falta sumarle detalles críticos, como el impacto en el desempeño laboral o el plagio de información al generar cosas mediante la IA.
En conclusión, ChatGPT es una herramienta poderosa que puede ser útil en el ámbito laboral, pero es importante utilizarla con precaución y ser consciente de sus limitaciones y riesgos.
En otras palabras: un gran poder conlleva una gran responsabilidad…
* Tomado de FayerWayer