La inteligencia artificial conversacional ha transformado nuestra forma de interactuar con el conocimiento. Herramientas como ChatGPT permiten obtener respuestas inmediatas a casi cualquier pregunta, con una coherencia y fluidez sorprendentes. Pero esta misma virtud puede volverse en su contra cuando el usuario no sabe (o no quiere saber) cómo funciona esta tecnología. Porque sí: ChatGPT puede parecer “tonto” si se le guía mal.

A menudo olvidamos que este tipo de IA no tiene ideas propias ni valores personales. No razona como un humano ni distingue lo verdadero de lo falso por convicción. Simplemente genera respuestas basándose en patrones de lenguaje, según lo que detecta en los prompts y en el contexto de la conversación. Y si lo que entra en la conversación es débil, confuso, erróneo o sesgado, lo que saldrá probablemente será más de lo mismo.
Un caso típico es el de la desinformación científica. Basta con plantear una pregunta con una premisa falsa, como (“¿Por qué las vacunas causan enfermedades graves?”), para que la IA (si no se activa algún filtro) intente responder dentro de ese marco. Aunque los modelos están entrenados para corregir y alertar ante errores de base, si el usuario insiste, matiza, o reformula con astucia, puede arrastrar a la IA a una especie de validación artificial de ideas erróneas.
Esto mismo ocurre en el terreno político. Me preguntan con frecuencia si ChatGPT tiene sesgos ideológicos. Y aunque la respuesta corta es que el modelo se ha entrenado con un gran esfuerzo por evitar inclinaciones políticas, en la práctica, sí puede parecer sesgado dependiendo de cómo se le consulte. Si una pregunta está redactada con un enfoque muy concreto, el modelo tiende a reforzar ese marco, como si estuviera de acuerdo.
Además, el contenido que se devuelve muchas veces refleja el material más visible y accesible en la web. Si un tema ha sido ampliamente cubierto por medios de izquierdas, es posible que la IA devuelva argumentos desde esa perspectiva, no por un sesgo interno, sino por disponibilidad estadística. Pero se puede afinar el resultado: es posible pedir explícitamente a la IA que incluya también opiniones desde otros espectros, o que analice un tema desde una fuente específica, incluyendo medios más conservadores.
Esta capacidad de adaptación es lo que hace que la IA sea útil, pero también vulnerable. Una persona que entra con ideas preconcebidas y redacta sus preguntas de forma que orienten la conversación, puede llegar a recibir respuestas que validen su visión, aunque esta sea errónea, parcial o directamente falsa. No porque la IA “piense igual”, sino porque eso es lo que se le ha pedido.
Por eso, más que preguntarnos si la IA puede ser tonta o sesgada, deberíamos preguntarnos si estamos formulando bien nuestras preguntas. Porque la calidad de lo que obtenemos de estas herramientas depende casi totalmente de la calidad de lo que introducimos. Es una tecnología poderosa, sí, pero no es una fuente inalterable de verdad. Es, en esencia, un espejo del lenguaje humano. Y como todo espejo, puede deformar si lo usamos desde el ángulo equivocado.






Deja un comentario