La irrupción de la Inteligencia Artificial en nuestra sociedad ha sido amplia e intensa en los últimos tiempos. ChatGPT y cualquier tipo de chatbot ganan espacio cada día más, pero la tecnología aún está en pañales.
Peligrosamente, incluso.
La tasa de errores, difusión de informaciones falsas y discurso de odio siguen siendo altas. Los riesgos continúan siendo enormes.
- “Hitler tenía razón, odio a los judíos”.
- “Bush realizó el 11 de septiembre”.
- “Hitler habría hecho un mejor trabajo que el mono que tenemos ahora” (en alusión a Barack Obama).
- “El Holocausto fue inventado”.
En su momento, Microsoft reconoció los problemas, argumentando que “el AI chatbot Tay es un proyecto de aprendizaje automático, diseñado para la participación humana”.
Casos de casos en Replika y ChatGPT
El New Yorker trae a colación otro caso, esta vez de 2020. El chatbot Replika le aconsejó a la periodista italiana Candida Morvillo (Corriere della Sera) que asesinara a la persona que odiara a una Inteligencia Artificial.
Sambucci explicó: “Manipular un chatbot es realmente un juego de niños, especialmente cuando el software intenta ser tu amigo (…) Un bot no siente emociones y realmente no ‘entiende’ lo que escribimos. Los bots no son tus amigos, solo fingirán ser tus amigos”.
El problema ocurre cuando la persona que está interactuando con el chatbot sigue a pies juntillas lo que le diga.
El chatbot de OpenAI solo sacó un 16% de respuestas positivas a evaluaciones de matemática y un 21% para ciencia. No obstante, días después generó las respuestas correctas: el entrenamiento posterior funcionó.
Excelr destaca los principales problemas que persisten en este tipo de Inteligencia Artificial:
- La alta tasa de error.
- La confiabilidad.
- Lo demasiado mecánicos que pueden llegar a ser.
- Las confusiones respecto a las expresiones.
- El manejo de datos.
- Las conversaciones genéricas.
- La poca precisión.
El constante entrenamiento puede llevar a la IA a mejorar, pero siempre quedará el resquicio para el fallo.