Hard Zone : Hardware, Reviews, Noticias, Tutoriales, Foros de ayuda – ChatGPT no es Google: la verdad detrás de la pérdida de rigor en la información

En los últimos meses, y muy especialmente desde el «boom» de la IA, la forma en la que los usuarios buscan información ha cambiado bastante. Cada vez más personas acuden directamente a herramientas de Inteligencia Artificial como ChatGPT o Copilot para resolver dudas o encontrar respuestas rápidas en lugar de hacer búsquedas en Google. Sin embargo, aunque esto sea cómodo tiene sus desventajas: la pérdida de rigor, contexto y actualidad. Y es que, aunque es muy cómodo preguntarle a ChatGPT y que te de una respuesta en segundos, esa respuesta muchas veces no tiene contexto, no está actualizada o está basada en un post de un foro de un usuario anónimo de Internet.

A diferencia de la prensa tecnológica que trabaja con información contrastada, fuentes directas y una dilatada experiencia en la materia, los modelos de IA funcionan con una base de datos limitada en el tiempo. Esto significa en muchísimas ocasiones que las respuestas que ofrecen están carentes de contexto y casi siempre están desactualizadas e incompletas.

Además, hay que tener en cuenta que una buena parte de su contenido se nutre de foros y redes sociales como Reddit, donde la desinformación y las opiniones sin fundamento son el pan de cada día.

La inmediatez frente al conocimiento real

Usar una IA para obtener información es como leer el resumen de un libro sin haberlo entendido: obtienes una conclusión pero no tienes nada de contexto. Las IA como ChatGPT, Gemini o Copilot sintetizan, sí, pero no distinguen entre una fuente oficial, contrastada y fiable y una opinión anónima a la hora de arrojar una respuesta a las preguntas de los usuarios.

Portátil mostrando la página principal de ChatGPT – Foto: Hatice Bara

Por el contrario, cuando haces búsquedas en Google y se te muestran decenas o cientos de resultados, accederás a medios especializados que realizan un trabajo invisible pero esencial: verificar, comparar y aportar criterio basado en la experiencia y en la formación profesional. Esta diferencia marca una clara frontera entre un dato correcto y una interpretación errónea. En lo que a nosotros nos afecta, en un entorno tan dinámico como el hardware o el gaming donde las especificaciones cambian casi a diario, esa falta de actualización convierte a la IA en una herramienta que puede resultar útil, pero nunca será definitiva.

Cuando buscas una respuesta en Google y accedes a un medio especializado, no solo obtendrás la respuesta de un profesional, sino que también te explicarán el porqué detrás de cada afirmación. Y aunque leer una noticia o encontrar la respuesta que buscas pueda llevarte más tiempo en comparación con preguntarle directamente a ChatGPT, ese esfuerzo asegura que la respuesta que recibirás será información real, veraz y actualizada.

La inmediatez puede ser cómoda, pero la calidad siempre exige un mínimo de atención. Ahora bien, hay otras cosas más allá de buscar información en las que una de estas IA sí que son útiles, como tareas organizativas, obtención de ideas, cálculos complejos, simulaciones, etc. Aparte, es bastante posible que en el futuro logren que también sean una fuente fiable de información, pero por ahora no es así.

El valor de lo humano en la era de la Inteligencia Artificial

Está claro que la IA ha cambiado la manera en la que consumimos información, pero también ha diluido el valor de lo que significa entender una noticia. Las IA no «saben», simplemente reproducen patrones estadísticos basados en textos creados por otros sin llegar a comprender ni su origen ni su intención o contexto. Frente a esta automatización del conocimiento, el periodismo mantiene una virtud que no se puede sustituir: el criterio del ser humano.

Cada artículo que lees ha sido escrito por un periodista especializado, y pasa por un proceso de análisis, contraste de fuentes y revisión editorial que ningún algoritmo de IA puede emular. Y es que no se trata solo de decir qué ha ocurrido, sino de entender por qué importa.

La trampa de Turing denuncia que se oriente la IA a parecerse a los seres humanos en lugar de complementarlos. Foto: ThisIsEngineering (Pexels)

Detrás de cada artículo que entras a leer hay años de experiencia y formación, contactos dentro del sector y la sensibilidad humana que permite contextualizar la información. Esto es algo que ChatGPT y ninguna otra IA, por muy avanzada que sea, no puede ofrecer. Una IA puede mezclar cifras, hacer cálculos y repetir conceptos, pero no puede asistir a una presentación de un fabricante, hacer una entrevista a un ingeniero o detectar la diferencia entre una estrategia de marketing que luego es humo y una innovación de verdad.

Además, estamos en un momento en el que la información fluye a una velocidad que supera la capacidad humana para digerirla, y los medios de comunicación actúan como un filtro necesario. Son quienes separan lo importante de lo superficial, lo verificable de lo especulativo. Leer una noticia en un medio especializado puede requerir unos segundos más que preguntarle algo a una IA, pero ese tiempo adicional te garantiza que la respuesta está anclada a la realidad, no a una predicción estadística.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *