×
Sello Maestría

¡Máquinas y memorias: El despertar de los recuerdos ha sido galardonado con el prestigioso Sello Maestría!

Descubre más aquí

¿Por qué las IAs se inventan cosas?

En todas las charlas y debates que tengo sobre los modelos de lenguaje, no me canso de decir que un LLM no es una fuente veraz de información. Sabe comunicarse muy bien y te hace sentir igual de bien, pero no es una fuente de información fiable. ¿Cómo es posible? Voy a intentar explicarlo con un clásico: la tortilla de patatas.

¿Te has fijado alguna vez en cómo discutimos los humanos sobre lo más simple? Pregunta a diez personas cómo se hace la tortilla de patatas perfecta. Uno te dirá que sin cebolla, otro que con mucha, alguno te hablará de cuajarla por completo y otro de que debe estar jugosa. Si vas a Google, verás miles de recetas, vídeos, trucos y hasta foros en los que la gente se pelea casi como si se jugara el orgullo nacional.

Ahora imagina que tienes una inteligencia artificial (de esas que tanto aparecen en mis novelas de Máquinas y memorias) que ha aprendido a cocinar leyendo Internet. Para cada pregunta sobre la tortilla, la IA se ha empapado de todas esas discusiones, recetas y vídeos.

¿Cómo decide la IA qué es lo correcto?

Los grandes modelos como ChatGPT, Gemini o Claude no saben, en realidad, cocinar. Ellos lo que hacen es aprender patrones: ven que “tortilla”, “huevo” y “patata” suelen ir juntos, pero también detectan que “cebolla sí” y “cebolla no” son bandos enfrentados.

¿Y entonces? ¿Cómo eligen qué receta darte si hay miles de opiniones distintas? Aquí viene la magia (y el caos):

1. Ponderan las fuentes “fiables”

Una receta de un chef famoso o de un libro de cocina reconocido pesa más que la de un usuario anónimo en un foro. Pero, ¿y si el chef famoso es “pro-cebolla” y en Internet hay más recetas “sin cebolla”? La IA hace una especie de media ponderada y decide.

2. Ajuste fino o “fine-tuning” por dominio específico
A veces, tras entrenar el modelo general, se le somete a un “entrenamiento adicional” sólo con textos de un área concreta (por ejemplo, recetas tradicionales españolas). Así, la IA puede especializarse y evitar mezclar tortillas con sushi.

3. Filtran lo inaceptable

Si una receta dice “usa detergente para esponjar la tortilla”, la IA la descarta. Hay reglas invisibles para que la IA no acabe recomendando disparates o peligros. Esto es lo que los desarrolladores llamamos “guardarraíles”.

4. Aprenden del feedback humano

Miles de personas han dicho “me gusta” o “no me gusta” a distintas recetas o respuestas de la IA. Así, la máquina aprende a evitar errores frecuentes, pero ojo, también a repetir lo que la mayoría prefiere… incluso aunque la “mayoría” esté equivocada desde el punto de vista tradicional.

5. Se puede “inclinar la balanza”

A veces, los propios creadores de la IA añaden muchas recetas “modelo” (por ejemplo, todas con cebolla) para que la IA tienda a sugerir esa opción como estándar. Esto puede hacer que lo minoritario desaparezca o se vuelva una rareza digital.

6. Moderación y revisión posterior (post-moderation)
Además de los filtros automáticos, muchas respuestas pasan por sistemas de revisión humana tras ser generadas, sobre todo en temas delicados, para mejorar la seguridad y calidad.

7. Recuperación aumentada por contexto (RAG, Retrieval-Augmented Generation)
Algunos sistemas combinan el modelo de IA con un motor de búsqueda que recupera información relevante de bases de datos o webs “en tiempo real”, asegurando que la respuesta esté actualizada y respaldada por fuentes externas.

8. Penalización de patrones problemáticos
Se aplican penalizaciones a determinadas palabras o construcciones que se sabe que pueden inducir a error, sesgo o polémica, para reducir la probabilidad de que se generen en la respuesta final.

9. Validación cruzada entre modelos
A veces, para asegurarse de que una respuesta no es fruto de la imaginación desatada de un único modelo, se consulta la misma pregunta a varios modelos diferentes o versiones distintas de la IA. Si todos coinciden, la respuesta se considera más fiable. Si hay discrepancias, se pueden revisar o incluso descartar las opciones menos coherentes.

¿Y qué pasa cuando preguntas por la tortilla?

La mayoría de las veces, la IA te dará la respuesta “estándar” (la que ha “visto” más veces, de fuentes más fiables, que no esté prohibida, etc.). Pero a veces, puede mezclar recetas, inventarse pasos o sugerir variantes que ni Arguiñano en un día inspirado.

Piensa que en el fondo, la IA genera respuestas probables, no necesariamente correctas. Si el ruido y la confusión en Internet es muy grande, la tortilla puede acabar con un ingrediente nuevo… o convertirse en un plato que ni los personajes de Máquinas y memorias se atreverían a probar.

Quizá por eso, en mis novelas, las IAs no solo batallan con datos, sino con los recuerdos contradictorios de los humanos. Si hasta la receta de la tortilla es un misterio sin resolver… ¿cómo vamos a ponernos de acuerdo sobre qué ocurrió en la implantación de MAI en EEUU?

Si quieres descubrir cómo afrontan mis personajes la búsqueda de la verdad (culinaria y existencial), te invito a sumergirte en Máquinas y memorias.