En la era de la Inteligencia Artificial (IA), la percepción de neutralidad en herramientas como ChatGPT está siendo cuestionada.
Un reciente análisis internacional revela que las recomendaciones de los chatbots no son tan espontáneas como parecen: detrás de las respuestas «mejor valoradas» existe una compleja red de algoritmos e inversiones económicas diseñadas para influir en el usuario.
La nueva batalla por la visibilidad
Durante décadas, las empresas compitieron por los primeros lugares en Google mediante el SEO (Search Engine Optimization). Sin embargo, el paradigma ha cambiado hacia el GEO (Generative Engine Optimization) o AEO (Answer Engine Optimization).
Este fenómeno marca un punto de inflexión: las marcas ya no buscan aparecer en una lista de enlaces, sino ser la respuesta definitiva construida por la IA. «Los profesionales han tenido que adoptar nuevas estrategias para adaptarse a las particularidades de los grandes modelos de lenguaje», señala el informe.
El riesgo de las recomendaciones sin verificación
Uno de los puntos más críticos es la advertencia sobre la falta de verificación humana. A diferencia de una sugerencia personal, la IA actúa como una «lectora superficial» de internet, lo que la hace susceptible a la manipulación.
- Tono de autoridad: Los usuarios tienden a confiar ciegamente en el lenguaje seguro de los chatbots.
- Sesgos algorítmicos: Las respuestas suelen ser útiles, pero están moldeadas por una nueva versión del marketing digital.
- Vulnerabilidad: Expertos advierten que, si una fuente logra posicionarse agresivamente en los datos de entrenamiento, la IA repetirá esa información como un hecho veraz.
La defensa de las Big Tech
Ante estas críticas, los gigantes tecnológicos han salido en defensa de su integridad operativa:
- OpenAI: Sostiene que ChatGPT utiliza una combinación de índices propios y datos con licencia, aplicando filtros estrictos contra fuentes de baja credibilidad.
- Google: Asegura que sus modelos están diseñados para resistir el keyword stuffing (relleno de palabras clave) y utilizan métodos de garantía de calidad para prevenir manipulaciones a gran escala.
Pese a estos esfuerzos, el artículo concluye que la influencia humana y económica es una constante en la evolución de la IA, invitando a los internautas a mantener una postura crítica frente a las respuestas generadas por máquinas.
Con información de VTV