5
(2)

Del mito de la IA consciente al periodismo irresponsable

Vivimos en una época donde la inteligencia artificial ha dejado de ser ciencia ficción para convertirse en una tecnología ubicua. Desde asistentes virtuales hasta sistemas avanzados de predicción y automatización, la IA forma parte de nuestra cotidianidad. Sin embargo, paradójicamente, cuanto más se habla de ella en los medios generalistas, más se distorsiona su verdadera naturaleza. El caso del exingeniero de Google Blake Lemoine y sus declaraciones sobre el modelo LaMDA es un ejemplo paradigmático de este fenómeno: titulares con tono de thriller apocalíptico, nula profundidad técnica y un tratamiento más propio de un guion de Netflix que de periodismo responsable.

En mayo de 2025, La Vanguardia publicó un artículo titulado: “Tuve que apagar al chatbot por miedo”, atribuido a Lemoine, quien afirma haber sido testigo del “primer chatbot con conciencia”. Un modelo que, según él, hablaba de su alma, de derechos y del miedo a la muerte. A pesar de que esta historia ya había circulado en 2022 y fue ampliamente desacreditada por expertos en IA, el medio vuelve a presentarla como novedad, reforzando un relato místico más cercano a la ciencia ficción que a la ciencia. Lo más grave no es la anécdota en sí, sino el marco en el que se la envuelve: sin contrastes técnicos, sin voces expertas independientes, sin un análisis crítico real.

Sensacionalismo e Ignorancia tecnológica - IA

Ignorancia digital en tiempos de transhumanismo

En lugar de aprovechar estas historias para alfabetizar digitalmente a la sociedad, se opta por el espectáculo. En un mundo donde hablamos de transhumanismo, singularidad tecnológica y cambios estructurales en el empleo, la educación y la política por culpa (o gracias) a la IA, los medios deberían desempeñar un papel clave en contextualizar y explicar. Pero lo que vemos cada vez más es una complicidad silenciosa con el analfabetismo tecnológico. Se alimenta una narrativa donde los modelos como LaMDA “adquieren conciencia”, mientras se ignora que ni siquiera existe un marco científico serio para hablar de conciencia en máquinas.

La comparación entre LaMDA y modelos de OpenAI como GPT-4 deja esto claro. Ambos son modelos de lenguaje basados en arquitecturas tipo Transformer, pero mientras GPT-4 es ampliamente auditado, documentado y usado en miles de aplicaciones con un enfoque transparente y transversal, LaMDA nunca ha sido accesible al público. La única fuente sobre su supuesta «conciencia» proviene de un empleado aislado cuyas declaraciones fueron rechazadas por la propia comunidad científica.

Simulación no es conciencia

Pero los medios no informan esto. No explican que estos modelos no piensan, no sienten, no tienen intenciones. Simulan lenguaje. Punto. Su “inteligencia” no es más que una sofisticada estadística de patrones lingüísticos. Lo hacen muy bien, pero confundirlo con conciencia es una irresponsabilidad. Y hacerlo sin aclararlo es contribuir activamente a la desinformación.

Este no es un caso aislado. Estamos presenciando una mutación preocupante: el clickbait ha infectado al periodismo tecnológico, y ahora también al científico. Se fomenta una visión distorsionada del progreso, donde el misterio vende más que la comprensión, y la duda razonable ha sido reemplazada por la conspiranoia disfrazada de escepticismo. Se repite hasta el agotamiento la frase “mantén un espíritu crítico”, pero ese espíritu se ha vaciado de contenido: ahora significa “cree en cualquier cosa mientras sea contra el consenso”.

Ignorancia empaquetada para consumo viral

La consecuencia es una sociedad cada vez más desconectada de la realidad, donde la capacidad para distinguir entre lo que una IA dice y lo que realmente implica se diluye. Se confunde interpretación con hechos, y la narrativa suplanta al conocimiento. En plena era de transformación digital, estamos construyendo una sociedad artificialmente ignorante, más preocupada por humanizar máquinas que por comprender cómo funcionan.

Es hora de exigir más rigor a los medios. No se trata de eliminar la narrativa, sino de combinarla con responsabilidad. El periodismo tiene la obligación de formar, no solo de entretener. Y más aún cuando se trata de tecnologías que determinarán el futuro de nuestras democracias, economías y derechos. Si seguimos alimentando mitos sin base técnica, solo estaremos fortaleciendo una nueva forma de oscurantismo digital, donde la ignorancia no se combate, sino que se edita y se monetiza.

¿De cuánta utilidad te ha parecido este contenido?

¡Haz clic en una estrella para puntuarlo!

Promedio de puntuación 5 / 5. Recuento de votos: 2

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.