Todos sabemos que hoy en día las herramientas de IA son capaces de hacer muchas cosas. Pero ¿qué tan buenas son estas herramientas para buscar en Internet?
Es una pregunta importante y conlleva muchas implicaciones. Porque según una investigación de Future (editor de TechRadar), casi un tercio de los encuestados estadounidenses dicen que ahora utilizan IA en lugar de motores de búsqueda tradicionales, como Google.
Algunas personas recurren a ChatGPT y otros chatbots. Mientras que otros utilizan herramientas de IA diseñadas específicamente para la investigación y la indagación, como Perplexity. Incluso si no elegimos activamente herramientas de IA, la IA aparece de todos modos en nuestras búsquedas, como esos pequeños resúmenes de Google que ahora aparecen en la parte superior de los resultados de búsqueda.
En resumen, la búsqueda impulsada por inteligencia artificial está en todas partes. Pero la verdadera pregunta sigue siendo: ¿es realmente bueno? Esto es lo que los investigadores están empezando a preguntarse, y digamos que las evaluaciones iniciales no son impresionantes.
¿Es ChatGPT el nuevo Google? No tan rapido...
Las personas pueden utilizar herramientas de IA para la investigación. Pero eso no significa que deban hacerlo.
En nuestras pruebas recientes, comparamos cuatro de los mejores chatbots de IA entre sí para ver qué tan bien manejan la búsqueda: ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y Perplexity AI.
Los resultados fueron… mixtos. No fue un desastre total (todos lograron recuperar información relevante), pero la precisión no fue muy buena. ¿Y la forma en que resumieron esa información? A menudo son confusos o no resultan útiles.
Estos resultados respaldan pruebas más exhaustivas realizadas por el Centro Tow para el Periodismo Digital, como se informó en Revista de periodismo de Columbia. Su equipo probó ocho modelos principales de IA (incluidos ChatGPT, Perplexity, Copilot, Grok y Gemini) y encontró problemas recurrentes: "presentación segura de información incorrecta, atribución engañosa de contenido compartido y prácticas inconsistentes de recuperación de información". Oh Dios mío.
En general, los modelos de IA proporcionaron una respuesta incorrecta a más del 60% de las consultas. Perplexity fue la prueba más precisa (lo cual es coherente con su marketing como herramienta de investigación), pero aún así obtuvo un 37% de respuestas incorrectas. Grok tuvo el peor desempeño, con una impactante tasa de fracaso del 94%. Sin comentarios.
El Centro Tao evaluó los resultados en una escala que iba desde completamente correcto a completamente incorrecto (o ninguna respuesta). Algunos de los peores ejemplos han sido alucinaciones absolutas, en las que la IA simplemente… inventa cosas. Pero incluso cuando las respuestas no eran completamente erróneas, todavía había problemas importantes con la forma en que las herramientas volvían a llenar las noticias y los resultados de búsqueda.
La investigación sin fuentes no es investigación en absoluto.
El problema fundamental radica en reformular la información de esta manera. Incluso si las tecnologías de IA no brindan información falsa, aún así resumen y reformulan el contenido de formas inútiles y a menudo engañosas. Como explica el Centro Tao:
“Mientras que los motores de búsqueda tradicionales suelen actuar como intermediarios, dirigiendo a los usuarios a sitios de noticias y contenido de alta calidad, las herramientas de búsqueda generativa analizan y reempaquetan la información por sí mismas, cortando el flujo de tráfico a las fuentes originales”.
El resultado del chat de estos bots suele ocultar graves problemas subyacentes con la calidad de la información. Es urgente evaluar cómo estos sistemas acceden, muestran y citan el contenido informativo.
Uno de los problemas más obvios es lo mal que las herramientas de IA citan sus fuentes. Por ejemplo, ChatGPT a menudo enlaza al artículo equivocado, te envía a la página de inicio del sitio web o omite las citas por completo.
Esto es un problema por dos razones principales. En primer lugar, los editores pierden tráfico, incluso aunque su contenido se esté utilizando.
En segundo lugar, la verificación de los hechos se vuelve difícil. Una de las únicas formas de verificar los resultados de la IA es hacer referencia a la fuente original, y esto es más difícil si no se proporciona.
Entonces, si la IA te brinda información pero sin una fuente clara, ¿realmente vale la pena usarla para investigar, especialmente si de todos modos terminas verificando todo a través de Google? Quizás no.
Sí, las herramientas de IA están mejorando todo el tiempo. Y sí, algunos, como Perplexity, funcionan mejor que otros. Pero incluso los mejores todavía necesitan supervisión humana. Actualmente, en lo que respecta a la investigación, los robots no están preparados para operar de forma autónoma.