La inteligencia artificial se ha convertido en una herramienta casi imprescindible en nuestra vida diaria. Desde ayudar a escribir correos electrónicos hasta generar imágenes o resolver dudas, su utilidad parece ilimitada. Sin embargo, un reciente escándalo mediático en Estados Unidos nos recuerda que no siempre podemos confiar ciegamente en estos sistemas, especialmente cuando se trata de búsquedas de información.
La IA y la confianza: un peligro para la verdad
Un incidente en los medios estadounidenses puso de manifiesto las limitaciones de los sistemas de IA generativa, como ChatGPT, en la búsqueda y verificación de información. Todo comenzó cuando CNN intentó citar ejemplos históricos de gracias presidenciales. En este caso, se mencionó que el presidente Woodrow Wilson había otorgado una gracia a su supuesto cuñado, un tal Hunter deButts. Este dato, rápidamente adoptado por varios medios y propagado en redes sociales, resultó ser completamente falso.
Cuando la periodista Ana Navarro-Cardenas, quien difundió la información, fue confrontada por las preguntas sobre sus fuentes, respondió de manera rotunda: “Pregúntenle a ChatGPT”. Este comentario provocó una investigación que reveló que el tal Hunter deButts no existía, y que otras “gracias presidenciales” ampliamente citadas, como las de George H.W. Bush y Jimmy Carter, también eran ficticias.
La peligrosa falta de fiabilidad de la IA
Este incidente es solo la punta del iceberg. Las investigaciones han demostrado que las herramientas de IA generativa, como ChatGPT, cometen errores en más del 75% de los casos cuando se trata de citar fuentes específicas. Esto resulta alarmante, especialmente cuando estos sistemas son cada vez más utilizados por periodistas, investigadores y estudiantes.
Un caso particularmente revelador fue el de Jeff Hancock, fundador del Stanford Social Media Lab y experto en desinformación. Él mismo cayó en la trampa de usar GPT-4 para generar una lista de referencias bibliográficas, solo para encontrarse con citas inexistentes en un documento oficial. Si incluso los expertos pueden ser engañados, ¿qué queda para el gran público?
El problema de fondo: la facilidad de uso y la pereza intelectual
La diferencia fundamental entre los motores de búsqueda tradicionales, como Google, y las IA generativas radica en su enfoque. Mientras que Google dirige al usuario hacia fuentes primarias que pueden ser consultadas y verificadas, las IA generativas producen respuestas que, aunque pueden parecer coherentes, son imposibles de verificar en la mayoría de los casos.
Esto plantea un problema significativo: la facilidad de uso de estas herramientas fomenta la pereza intelectual. ¿Por qué tomarse el tiempo para verificar fuentes cuando una IA nos ofrece una respuesta inmediata y aparentemente confiable? Este hábito contribuye a la degradación de nuestro entorno informativo, que ya enfrenta grandes desafíos debido a la desinformación en las redes sociales.
¿Las IA amenazan nuestra capacidad para distinguir entre lo verdadero y lo falso?
El impacto de este problema no se limita al ámbito académico. Desde errores menores, como la afirmación errónea de que los renos macho son monógamos, hasta malas interpretaciones graves de eventos actuales, la capacidad de distinguir entre lo verdadero y lo falso está en peligro. Mientras esperamos que los sistemas de IA se mejoren, es recomendable confiar en las herramientas tradicionales, como Google, y en nuestra propia capacidad para corroborar la información.
En conclusión, aunque las herramientas de IA pueden ser útiles para ciertas tareas, su uso en búsquedas de información presenta riesgos considerables. La falta de transparencia en sus respuestas y su incapacidad para proporcionar fuentes verificables representan una amenaza para la fiabilidad de la información que consumimos. A medida que estas herramientas continúan evolucionando, es fundamental no dejar de lado el sentido crítico y la necesidad de verificar siempre lo que leemos.












