Aprende IA desde Cero: Guía Completa de LLMs

Esto no es un curso. No es un blog. No hay opiniones ni marketing.
Aquí se explica cómo funcionan los modelos de lenguaje por dentro. Con datos reales, fuentes verificables, y código que puedes ejecutar tú mismo. Si algo no se puede demostrar, no está aquí.
Cada concepto tiene su guía completa. Empiezan con los fundamentos y después la explicación técnica para que encaje.
Cómo Funciona la IA por Dentro
Sección titulada «Cómo Funciona la IA por Dentro»Un modelo de lenguaje predice la siguiente palabra. No piensa, no busca, no verifica. Calcula probabilidades sobre tokens. Esta guía recorre todo el proceso de principio a fin.
Qué es la Tokenización
Sección titulada «Qué es la Tokenización»Los modelos no leen texto. Leen números. Tu texto se parte en trozos llamados tokens y cada trozo se convierte en un número. Esto determina cómo el modelo ve todo lo que le escribes.
Qué es un LLM
Sección titulada «Qué es un LLM»Un programa basado en la arquitectura Transformer que predice el siguiente token usando atención y redes neuronales. Sin recurrencia, sin reglas escritas a mano. Solo patrones estadísticos aprendidos de billones de tokens.
Qué son los Logits
Sección titulada «Qué son los Logits»Los números brutos que el modelo asigna a cada token posible antes de decidir cuál viene después. Pueden ser positivos o negativos. No son probabilidades. Son puntuaciones sin procesar.
Qué es Softmax
Sección titulada «Qué es Softmax»Una función matemática que convierte los logits en probabilidades que suman 1. Es lo que permite al modelo elegir un token. Se calcula con una exponencial y una división.
Qué es la Temperatura
Sección titulada «Qué es la Temperatura»Un número que se usa para controlar cuánto riesgo toma el modelo al elegir la siguiente palabra. Se divide entre los logits antes de softmax. Más baja, más predecible. Más alta, más variada.
Qué es el Sampling
Sección titulada «Qué es el Sampling»El último paso antes de que veas una palabra en pantalla. El modelo tiene probabilidades para cada token y tiene que elegir uno. Puede elegir siempre el más probable, o usar filtros como top-p y top-k.
Cómo Funciona la Predicción de Tokens
Sección titulada «Cómo Funciona la Predicción de Tokens»Un LLM genera texto de uno en uno. Predice un token, lo añade a la secuencia, y repite. Esto se llama generación autoregresiva. No hay planificación. Solo predicción del siguiente paso.
Qué es el Context Window
Sección titulada «Qué es el Context Window»La ventana de contexto es la cantidad máxima de texto que el modelo puede tener en cuenta. Todo lo que está fuera de la ventana no existe para el modelo. Se mide en tokens y tiene implicaciones directas en la calidad de las respuestas.
Por Qué la IA Inventa Cosas
Sección titulada «Por Qué la IA Inventa Cosas»Los LLM alucinan. Generan texto falso que suena perfecto. Esto ocurre porque el mecanismo premia la fluidez, no la verdad. Hay demostración matemática de que no se puede eliminar del todo.
Un LLM No Piensa
Sección titulada «Un LLM No Piensa»No entiende, no siente, no quiere. Calcula el siguiente token más probable. Parece inteligente porque los textos de entrenamiento fueron escritos por personas inteligentes. La fluidez no es comprensión.
Cómo Escribir Prompts que Funcionen
Sección titulada «Cómo Escribir Prompts que Funcionen»Un prompt no es una pregunta. Es el contexto estadístico que determina los tokens de salida. Aquí se explica qué funciona, qué no funciona, y por qué, desde la mecánica interna del modelo.
Qué pasa en la práctica
Sección titulada «Qué pasa en la práctica»- Entender cómo funciona el modelo ayuda a tener expectativas realistas.
- Saber sus límites evita frustraciones y errores costosos.
- Distinguir lo que hace bien de lo que hace mal permite aprovecharlo mejor.
Error común
Sección titulada «Error común»Pensar que el modelo busca en internet cuando responde. No lo hace. Solo usa patrones estadísticos aprendidos durante el entrenamiento.
Todas las guías están interconectadas. Cada concepto enlaza a los que necesita. El orden recomendado es el que ves arriba: de lo más básico a lo más aplicado.