La ingeniería de IA se ha convertido rápidamente en uno de los conjuntos de habilidades más valiosos del sector tech.
https://x.com/nicos_ai
El problema es que la mayoría de los principiantes no saben exactamente qué estudiar.
Algunos empiezan con teoría de machine learning. Otros se pierden viendo tutoriales eternamente. Muchos saltan directamente a prompts y agentes sin entender APIs, fundamentos de backend ni cómo se construyen productos reales.
El resultado suele ser siempre el mismo: mucha confusión y pocas habilidades prácticas.
Si tu objetivo es convertirte en AI Engineer, no necesitas dominar cada campo de la inteligencia artificial.
Necesitas aprender a construir sistemas de IA útiles en el mundo real.
Eso significa aprender a:
- Construir aplicaciones end-to-end con LLMs
- Trabajar con APIs de modelos como OpenAI y Anthropic
- Diseñar prompts y contexto correctamente
- Usar salidas estructuradas y tool calling
- Añadir recuperación de información cuando sea necesario
- Desplegar proyectos para que la gente los pueda usar de verdad
Esta guía está creada para darte un roadmap práctico de 6 meses.
El artículo tiene más de 10.000 palabras, así que leerlo puede llevarte unas horas.
Pero su valor real está en que, para cada habilidad que necesitas aprender, encontrarás recursos y explicaciones claras de qué hacer.
De ese modo, en seis meses puedes alcanzar el nivel de AI Engineer, y empezar a aplicarlo por tu cuenta ya en el primer o segundo mes.
Qué hace realmente un AI Engineer
Mucha gente escucha "AI Engineer" e imagina a alguien entrenando modelos gigantes desde cero.
En la realidad, la mayoría de los AI Engineers modernos hacen algo mucho más práctico:
Construyen productos y sistemas encima de modelos existentes.
Eso normalmente incluye:
- Conectarse a APIs de LLMs
- Diseñar flujos de prompts y contexto
- Construir sistemas de chat, búsqueda o automatización
- Integrar herramientas, bases de datos y APIs externas
- Gestionar salidas estructuradas
- Mejorar la fiabilidad, el coste y la latencia
- Desplegar funcionalidades de IA en aplicaciones reales
En la práctica, un AI Engineer se sitúa en la intersección de:
- Ingeniería de software
- Ingeniería de producto
- Automatización
- IA aplicada
Por eso el rol está creciendo tan rápido.
Las empresas no solo necesitan investigadores. Necesitan personas que tomen modelos y los conviertan en productos útiles.
Por eso este roadmap se enfoca menos en teoría pesada y más en ejecución práctica.
Si puedes construir apps reales con LLMs, sistemas de recuperación, automatizaciones y flujos listos para producción, ya estás mucho más cerca de ser contratado que la mayoría de principiantes.
Mes 1: Fundamentos sólidos de programación
Tu objetivo este mes: Convertirte en un desarrollador Python funcional.
No necesitas ser experto. Solo necesitas dejar de buscar sintaxis básica en Google y ser capaz de construir programas simples con confianza.
La ingeniería de IA es ante todo ingeniería de software.
Todo lo que viene en los meses siguientes asume que puedes escribir Python limpio, usar la terminal, llamar APIs y gestionar un codebase. Este mes es tu base.
1. Python
Python es el lenguaje de la ingeniería de IA. Sin más. Casi cada librería, API y tutorial que encuentres en los próximos seis meses estará en Python.
Cómo aprenderlo:
Empieza con un curso estructurado que te obligue a escribir código, no solo a ver vídeos.
El error más habitual en principiantes es consumir contenido de forma pasiva: leer, asentir y nunca abrir un editor de código. Combátelo escribiendo cada ejemplo mientras avanzas.
Recursos:
- Python for Everybody (Coursera, gratis con auditoría) El mejor punto de partida para principiantes absolutos.
- freeCodeCamp Python Course (YouTube, gratis) Un vídeo completo de 4 horas con todos los fundamentos.
- CS50P: Introduction to Programming with Python (Harvard, gratis) Más riguroso. Incluye ejercicios y proyecto final.
- Documentación oficial de Pythonhttps://docs.python.org/3/tutorial/ Seca pero definitiva. Úsala como referencia.
En qué enfocarte:
- Variables, tipos de datos, bucles, condicionales, funciones
- Listas, diccionarios, sets, tuplas
- Lectura/escritura de archivos y JSON
- Clases y OOP básico (solo lo suficiente para entender lo que lees)
- Gestión de errores con try/except
- Entornos virtuales (venv) y pip
- Gestión de paquetes y requirements.txt
Proyecto de práctica: Construye una herramienta CLI simple en Python. Por ejemplo, un rastreador de gastos personales que lea y escriba en un archivo JSON, o un script que llame a una API pública (como la de clima) y muestre resultados formateados.
2. Git y GitHub
Git es cómo los desarrolladores profesionales guardan y comparten código. Lo necesitarás constantemente: versionar proyectos, colaborar y mostrar tu portfolio en GitHub.
Recursos:
- Learn Git Branching (gratis, interactivo) La mejor herramienta visual para entender ramas y merges.
En qué enfocarte:
- git init, add, commit, push, pull
- Ramas y merges
- .gitignore
- Crear repos en GitHub y subir proyectos locales
- Escribir READMEs básicos
Práctica: Desde ahora, cada proyecto que construyas, aunque sean scripts pequeños, debe vivir en un repo de GitHub. Esto construye el hábito y te da un portfolio.
3. Terminal y línea de comandos
Como AI Engineer estarás ejecutando scripts, instalando paquetes, gestionando servidores y navegando por archivos desde la línea de comandos. Ser lento o tener miedo a la terminal es un cuello de botella real.
Recursos:
- The 50 Most Popular Linux & Terminal Commands (YouTube, gratis)
En qué enfocarte:
- Navegación: cd, ls, pwd, mkdir, rm
- Leer archivos: cat, less, grep
- Ejecutar scripts Python desde la terminal
- Variables de entorno
- Entendimiento básico de PATH
4. JSON, APIs, HTTP y fundamentos de Async
Llamarás a APIs de LLMs desde el primer día del Mes 2. Eso significa que necesitas entender cómo funcionan las APIs web antes de tocar los SDKs de OpenAI o Anthropic.
Recursos:
En qué enfocarte:
- Peticiones GET y POST: qué son y cómo hacerlas en Python
- Leer y escribir JSON
- Códigos de estado HTTP (200, 400, 401, 404, 500)
- Qué es una API key y patrones básicos de autenticación
- Qué hacen async def y await y por qué existen
Proyecto de práctica: Escribe un script Python que llame a una API pública gratuita (prueba Open-Meteo para datos meteorológicos, sin API key) y formatee el resultado como JSON limpio.
5. SQL básico y Pandas
No necesitas ser científico de datos, pero necesitarás inspeccionar, consultar y manipular datos regularmente. El SQL básico y la fluidez con pandas te salvarán constantemente.
Recursos:
- Guía oficial de inicio de Pandashttps://pandas.pydata.org/docs/getting_started/index.html
En qué enfocarte:
- SQL: SELECT, WHERE, GROUP BY, JOIN, ORDER BY
- Pandas: cargar CSVs, filtrar filas, seleccionar columnas, agregaciones básicas
6. FastAPI
Recursos:
- Tutorial oficial de FastAPI (gratis) Genuinamente una de las mejores documentaciones de framework jamás escritas.
- Python API Development (19 horas, freeCodeCamp, YouTube, gratis)
En qué enfocarte: Crear endpoints GET y POST, parámetros de ruta y query, cuerpos de petición con Pydantic, ejecutar uvicorn, y usar la interfaz /docs de FastAPI para probar tu API.
✅ Hito del Mes 1
Al final de este mes deberías poder:
- Escribir programas Python que lean/escriban archivos, llamen APIs y gestionen errores
- Versionar tu código con Git y subir proyectos a GitHub
- Navegar por la terminal sin dudar
- Entender qué es una petición HTTP y hacerla en Python
- Consultar una base de datos SQLite con SQL básico
- Construir y ejecutar una app FastAPI simple en local
Mes 2: Dominar el desarrollo de apps con LLMs
Tu objetivo este mes: Construir aplicaciones reales impulsadas por IA usando las APIs de OpenAI y Anthropic.
Al final deberías estar cómodo escribiendo prompts que funcionen de forma fiable, obteniendo datos estructurados de los modelos, consiguiendo que llamen a tus funciones, y gestionando todo lo que puede salir mal.
Este es el núcleo de la ingeniería de IA. Todo lo demás del roadmap se construye sobre lo que aprendas aquí.
1. Fundamentos de Prompting
El prompting no es solo hacer preguntas con amabilidad. Es el arte de escribir instrucciones que produzcan salidas consistentes y fiables de modelos que son fundamentalmente probabilísticos.
Como AI Engineer dedicarás una cantidad sorprendente de tiempo aquí.
Recursos:
- Tutorial interactivo de Prompt Engineering de Anthropic (gratis, GitHub) Un curso paso a paso en 9 capítulos con ejercicios.
- Docs de Prompt Engineering de Anthropic (gratis)
- Guía de Prompt Engineering de OpenAI (gratis)
En qué enfocarte: La diferencia entre mensajes de sistema y de usuario, por qué la especificidad importa, prompting con chain-of-thought, usar ejemplos en prompts (few-shot), y cómo pequeños cambios de redacción pueden cambiar drásticamente la calidad del output.
Práctica: Toma una tarea real (resumir un documento, extraer información de texto, clasificar feedback) y escribe 5 prompts diferentes. Compara los outputs. Verás de inmediato cuánto afecta el diseño del prompt a la fiabilidad.
2. Salidas Estructuradas / JSON Schemas
En aplicaciones reales casi nunca quieres texto en bruto del LLM. Quieres datos estructurados que puedas parsear, almacenar y usar en tu código.
Recursos:
- Guía de Structured Outputs de OpenAI (docs oficiales, gratis)
- Librería Instructor (gratis, open source) La forma más limpia de obtener salidas estructuradas de cualquier proveedor de LLM usando modelos Pydantic. Esto es lo que usan la mayoría de AI Engineers en producción.
- OpenAI Cookbook: Introducción a Structured Outputs (gratis)
En qué enfocarte: Definir modelos Pydantic para tus datos, pasar esquemas a la API, entender la diferencia entre structured outputs y JSON mode, y gestionar rechazos con elegancia.
Proyecto de práctica: Construye un parser de facturas. Dale texto libre (ej. "Factura #123, 45,99€ por 3 widgets, vencimiento 30 de marzo") y haz que devuelva un objeto Python estructurado con campos como número_factura, importe, artículos, fecha_vencimiento.
3. Function / Tool Calling
El tool calling es lo que transforma un LLM de un generador de texto en algo que puede tomar acciones: buscar en la web, consultar una base de datos, llamar a tu API, ejecutar código. Es una de las habilidades más importantes de esta guía.
Cómo entenderlo: El modelo no ejecuta tus funciones realmente. Examina el prompt y devuelve una llamada estructurada con el nombre de la función y los argumentos cuando decide que se debe usar una herramienta. Tu código ejecuta la llamada y envía el resultado de vuelta.
Recursos:
- Guía de Function Calling de OpenAI (docs oficiales, gratis)
- Docs de Tool Use de Anthropic (gratis)
- OpenAI Cookbook: How to Call Functions with Chat Models (gratis, GitHub)
En qué enfocarte: Describir funciones claramente en JSON Schema, parsear respuestas de tool calls, ejecutar la función y devolver resultados, gestionar casos donde no se necesita ninguna llamada, y el concepto de tool_choice: "auto".
Proyecto de práctica: Construye un asistente simple con tres herramientas: get_weather(ciudad), calculate(expresion), y search_notes(consulta). Conéctalas todas y observa cómo el modelo decide cuál llamar según lo que le preguntes.
4. Streaming de Respuestas
El streaming significa mostrar el output del modelo mientras se genera, palabra por palabra, en lugar de esperar la respuesta completa. Hace que tus apps se sientan dramáticamente más rápidas y vivas.
Recursos:
- Docs de Streaming de OpenAI (oficial, gratis)
- Docs de Streaming de Anthropic (oficial, gratis)
- How Streaming LLM APIs Work – Simon Willison (gratis)
En qué enfocarte: Configurar stream=True, iterar sobre chunks delta, ensamblar la respuesta completa, y conectar el streaming a un endpoint FastAPI usando StreamingResponse.
Consejo: El streaming es casi siempre la elección correcta para apps orientadas al usuario. Nadie quiere mirar un spinner de carga 10 segundos.
5. Estado de Conversación
Los LLMs no tienen estado: no tienen memoria entre llamadas. El historial de conversación es algo que tú gestionas enviando la lista completa de mensajes con cada petición. Entender esto es fundamental.
Recursos:
- Guía de Chat Completions de OpenAI, Managing Conversations (oficial, gratis)
En qué enfocarte: La estructura del array de messages, por qué añades tanto mensajes de usuario como de asistente, límites de context window, y estrategias básicas de truncado.
Proyecto de práctica: Construye un chatbot multi-turno simple en la terminal. Cada turno se añade a la lista de mensajes. Añade un comando /reset para limpiar el historial, e imprime el recuento de tokens actual después de cada intercambio.
6. Costes, Latencia y Fundamentos de Tokens
Lanzar apps de IA sin entender costes y tokens es la forma de acabar con facturas sorpresa y apps lentas. Esto es aburrido pero crítico.
Recursos:
- Página de precios de OpenAIhttps://openai.com/api/pricing
- Página de precios de Anthropichttps://www.anthropic.com/pricing
En qué enfocarte: Qué es un token (aproximadamente 4 caracteres / 3/4 de una palabra), cómo se cobran de forma diferente los tokens de entrada y salida, cómo el tamaño del context window afecta lo que puedes hacer, y el trade-off de latencia entre modelos más pequeños/rápidos y más grandes/inteligentes.
También: No uses GPT-4/Opus para todo. Los modelos más baratos son a menudo más que suficientes para tareas simples.
7. Gestión de Fallos
Las APIs de LLMs fallan. Se alcanzan límites de rate, las respuestas tienen timeout, el modelo devuelve JSON malformado. Gestionar fallos con elegancia es lo que separa una demo de una app en producción.
Recursos:
- Referencia de códigos de error de OpenAI (oficial, gratis)
- Tenacity (librería Python, gratis) Una librería limpia para añadir lógica de reintentos con exponential backoff a cualquier función Python.
En qué enfocarte: Errores de rate limit (429) y exponential backoff, gestión de timeouts, validar el output del modelo antes de usarlo, estrategias de fallback, y nunca crashear tu app porque el LLM devolvió un output inesperado.
8. Prompt Injection: Conciencia Básica de Seguridad
La prompt injection es el riesgo de seguridad número 1 en aplicaciones LLM. Ocurre cuando el input no confiable del usuario se combina con instrucciones del sistema, permitiendo a un usuario alterar o anular el comportamiento del prompt.
No necesitas ser un experto en seguridad, pero necesitas saber que esto existe antes de lanzar nada.
Recursos:
- OWASP Top 10 for LLM Apps – LLM01: Prompt Injection (gratis)
- OWASP Prompt Injection Prevention Cheat Sheet (gratis)
- Evidently AI: What is Prompt Injection (gratis)
En qué enfocarte: La diferencia entre inyección directa e indirecta, por qué los system prompts no son verdaderamente "seguros", el principio de mínimo privilegio para el acceso a herramientas, y nunca confiar en output de LLM no validado para tomar decisiones automáticas con consecuencias.
✅ Hito del Mes 2
Al final de este mes deberías poder:
- Escribir prompts que produzcan outputs consistentes y fiables para una tarea dada
- Obtener datos JSON estructurados de cualquier modelo usando Pydantic + Instructor
- Conectar tool calling para que un modelo pueda llamar a tus funciones Python
- Hacer streaming de respuestas en tiempo real a través de un endpoint FastAPI
- Gestionar el historial de conversación multi-turno correctamente
- Estimar el coste en tokens de una petición antes de enviarla
- Gestionar errores de API, timeouts y outputs incorrectos sin crashear
- Explicar qué es la prompt injection y aplicar defensas básicas
Mes 3: Aprender RAG Correctamente
Tu objetivo este mes: Construir sistemas que permitan a los LLMs responder preguntas a partir de tus documentos, no solo de sus datos de entrenamiento.
Al final deberías poder ingerir documentos, hacer embeddings y almacenarlos, recuperar los chunks correctos en el momento de la consulta, y producir respuestas fundamentadas, precisas y citables.
RAG es la habilidad práctica más demandada en ingeniería de IA ahora mismo. Casi todos los casos de uso empresarial reales (bots de soporte, bases de conocimiento internas, Q&A sobre documentos) están construidos sobre ella.
1. Embeddings
Antes de construir un sistema RAG necesitas entender qué son los embeddings, porque son la base sobre la que se construye todo lo demás.
Un embedding de texto es un fragmento de texto proyectado en un espacio vectorial de alta dimensión. La posición de ese texto en este espacio se representa como una larga secuencia de números. Críticamente, el texto que es semánticamente similar acaba cerca en ese espacio, lo que hace posible la búsqueda por similitud.
Recursos:
- Stack Overflow Blog: An Intuitive Introduction to Text Embeddings (gratis) La mejor explicación para principiantes.
- Google ML Crash Course: Embeddings (gratis)
- HuggingFace: Getting Started With Embeddings (gratis)
- Guía de Embeddings de OpenAI (docs oficiales, gratis)
En qué enfocarte: Qué es un vector conceptualmente, por qué el texto similar produce vectores similares, cómo funciona la similitud coseno, la diferencia entre modelos de embedding, y qué significa la dimensión de embedding en la práctica.
Práctica: Coge 20 frases sobre temas relacionados, genera sus embeddings usando OpenAI o sentence-transformers, y escribe una búsqueda de vecinos más cercanos simple que devuelva las 3 más similares a una consulta. Este es literalmente el corazón del RAG en miniatura.
2. Chunking
Tus documentos son demasiado grandes para hacer embedding como un todo. El chunking es el proceso de dividirlos en piezas más pequeñas antes del embedding.
Cómo divides tus documentos afecta directamente la capacidad de tu sistema para encontrar información relevante y dar respuestas precisas.
Recursos:
- Weaviate: Chunking Strategies for RAG (gratis) La guía más práctica.
- Unstructured: Chunking for RAG Best Practices (gratis)
- LangChain Text Splitters Docs (oficial, gratis)
En qué enfocarte: Chunking de tamaño fijo con solapamiento como tu línea base, chunking recursivo para documentos estructurados, chunking semántico para mejor detección de límites, y el trade-off principal: chunks demasiado grandes pierden precisión de recuperación; chunks demasiado pequeños pierden contexto.
Consejo para principiantes: Empieza con RecursiveCharacterTextSplitter de LangChain con chunk_size=500 y chunk_overlap=50. Es el default más sensato para la mayoría de documentos.
3. Bases de Datos Vectoriales
Una vez tienes embeddings, necesitas un lugar donde almacenarlos y buscarlos eficientemente. Para esto sirven las bases de datos vectoriales.
La elección correcta depende de tu situación: usa Chroma para prototipado local rápido, Pinecone para escala gestionada, Weaviate para flexibilidad open-source con buena búsqueda híbrida, Qdrant para filtros complejos y autoalojamiento eficiente en costes, y pgvector si ya estás en PostgreSQL.
Recursos:
- Chroma Official Docs (gratis) Perfecto para desarrolladores individuales y equipos pequeños.
- Pinecone Learning Center (gratis) Excelentes tutoriales gratuitos sobre conceptos de búsqueda vectorial y pipelines RAG.
- Documentación de Qdrant (gratis) Mejor opción open-source para producción con filtrado avanzado.
En qué enfocarte: Crear una colección, insertar embeddings con metadatos, consultar por similitud con top_k, y filtrar por metadatos en el momento de la consulta.
No necesitas entender los algoritmos de indexación (HNSW, IVF), solo saber usarlos.
Proyecto de práctica: Indexa 50-100 páginas de cualquier documentación pública en Chroma con metadatos (URL fuente, título de sección). Escribe una función de consulta que recupere los 5 chunks más relevantes para cualquier pregunta.
4. Filtrado por Metadatos
La búsqueda por similitud pura no es suficiente para aplicaciones reales. El filtrado por metadatos te permite limitar la recuperación a un subconjunto relevante: por fecha, fuente, tipo de documento, usuario, categoría, o cualquier atributo que almacenes junto a cada chunk.
Recursos:
- Pinecone: Metadata Filtering Guide (gratis)
- LlamaIndex: Metadata Filters Guide (docs oficiales, gratis)
En qué enfocarte: Etiquetar cada chunk con metadatos relevantes en el momento de la ingesta (nombre de archivo fuente, número de página, sección, fecha, categoría), y usar esos campos para filtrar resultados en el momento de la consulta.
5. Reranking
El reranking es una técnica que añade un boost semántico a la calidad de búsqueda de cualquier sistema de búsqueda por palabras clave o vectores.
Después de que la recuperación de primera etapa devuelve un conjunto de candidatos, un reranker vuelve a puntuar esos resultados basándose en la relevancia contextual real a la consulta, no solo en la proximidad vectorial.
El patrón de dos etapas es: embed y busca (rápido, aproximado) → rerank top-k (más lento, más preciso). El resultado es una calidad de recuperación dramáticamente mejor con solo un coste de latencia modesto.
Recursos:
- LangChain: Integración con Cohere Reranker (docs oficiales, gratis)
En qué enfocarte: El patrón de recuperar-luego-rerank, la diferencia entre un bi-encoder (usado para búsqueda de embeddings de primera etapa) y un cross-encoder (usado para reranking), y el trade-off práctico de latencia/calidad.
6. Problemas de Calidad de Recuperación
La mayoría de fallos en RAG no son fallos del modelo, son fallos de recuperación. Entender las formas en que la recuperación puede fallar es esencial para depurar sistemas reales.
Problemas comunes a aprender:
- Deriva semántica: El embedding de la consulta no coincide con el chunk relevante aunque la información esté ahí. Solución: prueba query rewriting o HyDE (Hypothetical Document Embeddings)
- Problemas de límites de chunk: La información relevante está dividida entre dos chunks. Solución: aumenta el solapamiento o usa chunking semántico
- Contexto de metadatos faltante: Los chunks son semánticamente similares a la consulta pero pertenecen al documento, fecha o usuario equivocado. Solución: usa filtrado por metadatos
- Top-k demasiado pequeño: El chunk correcto existe pero no está en los 5 primeros resultados recuperados. Solución: aumenta top_k en recuperación y reduce después del reranking
Recursos:
- Pinecone: Improving Retrieval Quality (gratis)
7. Reducción de Alucinaciones
RAG reduce drásticamente las alucinaciones comparado con un LLM puro, pero no las elimina.
Al suministrar al modelo hechos recuperados en tiempo de ejecución, RAG ancla sus respuestas a fuentes reales en lugar de depender solo de los datos de entrenamiento, y el output del modelo puede incluso citar esas fuentes, aumentando la transparencia y la confianza.
Pero los fallos de recuperación, los chunks malos y la información contradictoria todavía pueden hacer que el modelo invente cosas.
Recursos:
- Zep: Reducing LLM Hallucinations – A Developer's Guide (gratis)
- Voiceflow: 5 Ways to Reduce LLM Hallucinations (gratis)
En qué enfocarte: Instruir al modelo para responder solo desde el contexto proporcionado (y decir "no sé" cuando la respuesta no está ahí), añadir un umbral de confianza antes de mostrar respuestas, y siempre validar la calidad de recuperación antes de culpar al LLM.
8. Citas y Fundamentación
Un sistema RAG fundamentado no solo responde, te dice de dónde viene la respuesta. Esto es crítico para la confianza del usuario y para la depuración.
Recursos:
- Anthropic: Dar fuentes a Claude (docs, gratis)
En qué enfocarte: Pasar metadatos del chunk (nombre de archivo fuente, número de página, URL) al contexto de tu prompt, instruir al modelo para referenciar fuentes en su respuesta, y mostrar esas fuentes en tu UI o respuesta de API.
9. Tu Framework RAG: LangChain o LlamaIndex
No necesitas construir un pipeline RAG desde cero. Dos frameworks dominan el espacio y merece la pena conocerlos:
LlamaIndex está optimizado para poner primero la búsqueda y la indexación. Abstrae la ingesta, chunking, embedding y consulta en pocas líneas de código, permitiéndote construir un prototipo funcional en una tarde.
LangChain brilla cuando tu aplicación parece más un motor de orquestación: destaca con flujos de trabajo multi-agente, tool calling y cadenas condicionales que consultan múltiples LLMs o APIs externas antes de generar una respuesta.
Para el Mes 3, empieza con LlamaIndex para RAG. Pasa a LangChain cuando llegues al trabajo con agentes del Mes 4.
Recursos:
- LlamaIndex: Introduction to RAG (docs oficiales, gratis)
- LlamaIndex Starter Tutorial (docs oficiales, gratis)
- LangChain: Build a RAG Agent (docs oficiales, gratis)
Proyecto de práctica: Construye una app "chatea con tus documentos". Ingesta 10-20 archivos PDF o de texto. Construye un endpoint FastAPI que acepte una pregunta, recupere los 5 chunks más relevantes con reranking, y devuelva una respuesta citada de Claude u OpenAI. Este es un proyecto de portfolio real.
✅ Hito del Mes 3
Al final de este mes deberías poder:
- Explicar qué es un embedding y por qué el texto similar produce vectores similares
- Dividir cualquier documento inteligentemente usando estrategias apropiadas
- Almacenar y consultar embeddings en una base de datos vectorial con filtrado por metadatos
- Añadir un paso de reranking para mejorar la calidad de recuperación
- Depurar fallos de recuperación comunes de forma sistemática
- Construir un pipeline RAG end-to-end completo usando LlamaIndex o LangChain
Mes 4: Agentes, Herramientas, Flujos de Trabajo y Evaluaciones
Tu objetivo este mes: Construir sistemas de IA que puedan tomar secuencias de acciones de forma autónoma, conectar flujos de trabajo en varios pasos, y evaluar críticamente si están funcionando.
Al final deberías poder construir un agente real desde cero, entender cuándo los agentes son la elección equivocada, y medir el rendimiento de cualquier cosa que construyas.
Aquí es donde la ingeniería de IA se vuelve genuinamente compleja. Las habilidades del Mes 4 son lo que separa a los AI Engineers junior de las personas que pueden ser dueñas de una funcionalidad de IA de principio a fin.
1. Bucles de Agente
Un agente no es magia. Es un patrón sorprendentemente simple.
Piensa en los agentes como sistemas orientados a objetivos que hacen ciclos continuamente a través de observar, razonar y actuar.
Este bucle les permite abordar tareas que van más allá de simples preguntas y respuestas, adentrándose en automatización real, uso de herramientas y adaptación al vuelo.
El "pensamiento" ocurre en el prompt, la "bifurcación" es cuando el agente elige entre herramientas disponibles, y el "hacer" ocurre cuando llamamos a funciones externas. Todo lo demás es solo fontanería.
Una vez que interiorices esto, incluso los frameworks de agentes más complejos se vuelven legibles.
Recursos:
- Anthropic: Building Effective Agents (oficial, gratis) La mejor pieza de escritura sobre agentes en producción. Lee esto antes de escribir una sola línea de código de agente.
- OpenAI: A Practical Guide to Building Agents (PDF oficial, gratis)
- freeCodeCamp: The Open Source LLM Agent Handbook (gratis)
- LangChain Academy: Introduction to LangGraph (curso gratuito)
En qué enfocarte: El ciclo percibir → planificar → actuar → observar, cómo termina el bucle del agente, qué pasa cuando una tool call falla dentro del bucle, y por qué los agentes son simplemente bucles while con un LLM tomando las decisiones de bifurcación.
Práctica: Construye un agente desde cero sin ningún framework, solo la API de OpenAI o Anthropic directamente. Dale 3 herramientas, un objetivo y un bucle. Esto es lo más valioso que puedes hacer para entender realmente qué están abstrayendo los frameworks.
2. Selección de Herramientas
Escribir buenas herramientas es la mitad del trabajo. Las descripciones de tus herramientas y sus parámetros son el manual de usuario para el LLM. Si el manual es vago, el LLM usará mal la herramienta. Sé dolorosamente, implacablemente explícito.
Una herramienta mal descrita se llamará mal, se llamará en el momento equivocado, o se ignorará por completo.
Recursos:
- OpenAI: Function Calling Best Practices (docs oficiales, gratis)
- Anthropic: Tool Use Best Practices (docs oficiales, gratis)
En qué enfocarte: Escribir nombres de herramientas que sean verbos autoexplicativos, escribir descripciones que expliquen cuándo llamar a la herramienta (no solo qué hace), mantener los parámetros mínimos y bien tipados, y diseñar herramientas con el LLM como caller.
Consejo para principiantes: Prueba cada descripción de herramienta preguntándote: "Si no tuviera documentación y solo este JSON schema, ¿sabría exactamente cuándo y cómo llamar esto?" Si no, necesita más trabajo.
3. Gestión de Estado
En LangGraph, el estado es un objeto de memoria compartida que fluye a través del grafo. Almacena toda la información relevante: mensajes, variables, resultados intermedios e historial de decisiones, y se gestiona automáticamente durante la ejecución.
Entender el estado es la clave para construir agentes que puedan manejar tareas multi-turno, recuperarse de fallos y hacer handoffs entre componentes limpiamente.
Recursos:
- LangGraph Official Docs: State Management (gratis)
En qué enfocarte: Definir esquemas de estado con TypedDict, cómo funcionan los reductores para fusionar actualizaciones paralelas, la diferencia entre estado en memoria y checkpointing persistido, y cómo funcionan las pausas human-in-the-loop inspeccionando y modificando el estado a mitad de la ejecución.
4. Reintentos y Gestión de Fallos en Agentes
Los agentes fallan de forma diferente a las llamadas LLM regulares. Una mala tool call a mitad del bucle puede corromper el estado, causar bucles infinitos, o producir respuestas incorrectas de forma silenciosa. Necesitas estrategias explícitas para todo esto.
Recursos:
- LangGraph: Error Handling and Retries (docs oficiales, gratis)
- OpenAI Practical Agents Guide: sección de Guardrails (gratis)
En qué enfocarte: Límites máximos de iteración para prevenir bucles infinitos, reintentos por herramienta con exponential backoff, capturar y registrar excepciones en la capa de ejecución de herramientas sin crashear el agente, y cuándo mostrar un fallo al usuario frente a reintentar en silencio.
5. Cuándo NO Usar Agentes
Esta es una de las habilidades más importantes y más ignoradas en ingeniería de IA. Los agentes son emocionantes pero también son lentos, caros, impredecibles y difíciles de depurar. Saber cuándo usar algo más simple es señal de buen juicio.
Anthropic recomienda encontrar la solución más simple posible y solo aumentar la complejidad cuando sea necesario.
El marco de decisión es:
- Usa una sola llamada LLM si la tarea se puede resolver en un prompt con el contexto correcto
- Usa un flujo de trabajo si los pasos son fijos y predecibles
- Usa un agente solo si el número de pasos es genuinamente impredecible y requiere toma de decisiones dinámica
Recursos:
- Anthropic: Building effective agents, when to use agents (oficial, gratis)
- Simon Willison: Designing Agentic Loops (gratis)
Para memorizar: Una cadena de 3 llamadas LLM fijas siempre será más rápida, más barata y más depurable que un agente que podría hacer 3 llamadas. Reserva los agentes para tareas genuinamente abiertas.
6. Flujos de Trabajo Multi-Paso
Entre "prompt único" y "agente completo" hay un vasto y productivo terreno intermedio: los flujos de trabajo. Son ideales cuando la tarea puede descomponerse limpiamente en subtareas fijas.
Los patrones comunes incluyen encadenamiento de prompts, enrutamiento, paralelización (ejecutar múltiples llamadas simultáneamente y agregar) y orquestador-subagente.
Recursos:
- Anthropic: Workflow Patterns (oficial, gratis)
- LangGraph: Multi-Agent Networks (docs oficiales, gratis)
Proyecto de práctica: Construye un pipeline de contenido de 3 pasos:
- Paso 1: un LLM extrae hechos clave de un artículo
- Paso 2: otra llamada LLM usa esos hechos para generar un tweet, un post de LinkedIn y un resumen en paralelo
- Paso 3: una llamada LLM final puntúa los tres por calidad y elige el mejor
Sin agente. Flujo de trabajo puro.
7. Harnesses de Evaluación
Las evals son como sabes si tu sistema de IA realmente está funcionando, no solo en los ejemplos que probaste a mano, sino sistemáticamente en cientos de inputs.
Recursos:
- DeepEval (open source, gratis) Un framework de evaluación LLM open-source inspirado en pytest.
- Promptfoo (open source, gratis) Una CLI y librería para probar y evaluar apps LLM con suites de prueba automatizadas.
- LangSmith (nivel gratuito) Tracing, depuración y evaluación para apps LangChain y LangGraph.
- Ragas (open source, gratis) Framework de evaluación especializado para pipelines RAG. Mide fidelidad, relevancia de respuestas, precisión de contexto y recall de contexto.
En qué enfocarte: Construir un conjunto de pruebas dorado de 20-50 inputs representativos con outputs esperados o rúbricas, escribir funciones de evaluación que puntúen outputs de forma determinista o con LLM-como-juez, y ejecutar evals automáticamente cuando cambies un prompt o intercambies un modelo.
Mentalidad crítica: Las evals no son un pulido opcional. Cada cambio de prompt, intercambio de modelo o ajuste de recuperación que hagas sin ejecutar evals es una apuesta. Los ingenieros que lanzan productos de IA fiables ejecutan evals constantemente.
8. Métricas de Éxito de Tareas
Más allá de las evals automatizadas, necesitas métricas que te digan si tu agente está logrando su objetivo real.
Recursos:
En qué enfocarte: La diferencia entre métricas de proceso (¿llamó el agente a la herramienta correcta?) y métricas de resultado (¿tuvo éxito la tarea?), definir criterios de éxito claros antes de construir nada, y usar LLM-como-juez para la evaluación de outputs que resisten el matching exacto.
Proyecto de práctica: Coge tu pipeline RAG del Mes 3 y construye un harness de evaluación apropiado alrededor de él. Crea 30 pares pregunta-respuesta de tus documentos, hazlos pasar por tu pipeline, y puntúa cada respuesta por relevancia, fidelidad e integridad usando DeepEval. Luego cambia algo (tamaño de chunk, modelo, top-k) y vuelve a ejecutar para ver si mejoró.
✅ Hito del Mes 4
Al final de este mes deberías poder:
- Explicar qué es un bucle de agente e implementar uno desde cero sin un framework
- Escribir descripciones de herramientas que se seleccionen correcta y fiablemente
- Gestionar el estado del agente correctamente usando LangGraph o equivalente
- Manejar fallos dentro de bucles de agente sin crashear
- Decidir con confianza si una tarea necesita un agente, un flujo de trabajo, o un prompt único
- Construir flujos de trabajo multi-paso que encadenen, enruten y paralelicen llamadas LLM
- Escribir evals automatizadas que detecten regresiones cuando cambies prompts o modelos
- Definir y medir métricas de éxito de tareas para cualquier sistema de IA que construyas
Mes 5: Despliegue, Pensamiento de Producto y Fiabilidad
Tu objetivo este mes: Tomar todo lo que has construido y hacerlo listo para producción.
Al final deberías poder desplegar una app de IA que maneje usuarios reales, tráfico real y fallos reales sin derrumbarse a las 2 de la mañana.
Aquí es donde la mayoría de AI Engineers se estancan. Pueden construir una demo genial pero no pueden lanzar un producto que sobreviva al contacto con el mundo real.
Las habilidades aquí son lo que las empresas realmente pagan: fiabilidad, seguridad, control de costes, y la capacidad de mantener las cosas funcionando cuando inevitablemente algo se rompe.
1. Patrones de Producción con FastAPI
Ya sabes cómo construir una app FastAPI del Mes 1. Ahora necesitas hacerla sobrevivir al tráfico de producción.
La diferencia entre dev y prod es brutal. Un solo proceso uvicorn con --reload está bien para construir. En producción se convierte en el cuello de botella en el momento en que llega tráfico real.
Lo que realmente necesitas: configuración ASGI multi-worker, middleware apropiado de gestión de errores, endpoints de health check y políticas CORS.
Recursos:
- FastAPI Production Deployment Guide (gratis)
- FastAPI Best Practices for Production (gratis)
En qué enfocarte: Ejecutar Gunicorn con workers Uvicorn, configurar endpoints de health check, añadir middleware CORS, implementar sesiones de base de datos async apropiadas, y usar background tasks para cualquier cosa que no necesite bloquear la respuesta.
2. Docker
Docker es cómo dejas de decir "en mi máquina funciona" y empiezas a lanzar despliegues consistentes.
No necesitas convertirte en un experto en Docker. Necesitas poder contenerizar tu app FastAPI + LLM y desplegarla en cualquier sitio.
Recursos:
- freeCodeCamp: How to Build and Deploy a Multi-Agent AI System with Python and Docker (gratis)
- DataCamp: Deploy LLM Applications Using Docker (gratis)
En qué enfocarte: Escribir un Dockerfile para una app Python/FastAPI, usar multi-stage builds para mantener las imágenes pequeñas, Docker Compose para setups multi-servicio, variables de entorno para secrets, y .dockerignore para evitar filtrar archivos sensibles.
Proyecto de práctica: Conteneriza tu app RAG del Mes 3. Crea un docker-compose.yml que ejecute tu app FastAPI, una base de datos vectorial (Chroma o Qdrant), y Redis para caché. Despliégalo para que docker compose up arranque todo.
3. Jobs en Background y Colas
Las llamadas LLM son lentas. Si un usuario pide a tu app que procese un documento y le haces esperar 30 segundos para una respuesta, se irá.
Los background jobs te permiten aceptar la petición inmediatamente, procesarla async, y notificar al usuario cuando esté listo.
Recursos:
- Celery Official Getting Started Guide (gratis)
- FastAPI Background Tasks Docs (oficial, gratis)
En qué enfocarte: Entender cuándo usar BackgroundTasks de FastAPI frente a una cola de tareas apropiada como Celery, configurar Redis como message broker, gestionar fallos y reintentos de tareas, y devolver el estado del job al usuario.
4. Auth y Seguridad de API Keys
Si tu app de IA tiene una API, necesita autenticación. Sin ella, cualquiera puede usar tus endpoints, quemar tus créditos LLM, y amanecerás con una factura de 5.000€.
Recursos:
- Auth0: API Auth Best Practices (gratis)
En qué enfocarte: Tokens JWT para auth de usuario, gestión de API keys para comunicación servicio a servicio, rate limiting por usuario/key, nunca almacenar secrets en código (usa variables de entorno), y entender la diferencia entre autenticación (quién eres) y autorización (qué puedes hacer).
5. Logging y Observabilidad
En producción, si no puedes ver qué está pasando, no puedes arreglar lo que está roto.
Las apps LLM tienen un desafío único: el modelo puede devolver un código de estado 200 y aun así producir una respuesta inútil o alucinada. El monitoreo tradicional no detecta esto. Necesitas observabilidad específica para LLMs.
Recursos:
- Langfuse (open source, nivel gratuito) Plataforma de observabilidad LLM open-source.
- Python Structlog (gratis) Logging estructurado para Python. Produce logs JSON que son realmente buscables y parseables.
En qué enfocarte: Trazar cada llamada LLM (prompt de entrada, output, tokens, latencia, coste), logging estructurado con output JSON, configurar dashboards que muestren volumen de peticiones, tasas de error y coste por día, y alertas cuando algo se rompa o los costes suban.
6. Gestión de Prompts y Versiones
En producción, tus prompts son código. Necesitan control de versiones, pruebas y capacidad de rollback.
Cambiar un prompt en producción sin registrar qué has cambiado es cómo rompes cosas y no puedes averiguar por qué.
Recursos:
- Langfuse Prompt Management (gratis) Versionado centralizado de prompts con un playground integrado para pruebas.
- Anthropic Prompt Management Best Practices (gratis)
En qué enfocarte: Almacenar prompts fuera del código de tu aplicación, versionar cada cambio de prompt, hacer A/B testing de variantes de prompts en producción, y tener una estrategia de rollback cuando un nuevo prompt rinde peor.
7. Monitoreo de Costes y Rate Limits
Las APIs de LLMs cobran por token. Sin controles de costes, un pico de tráfico o un bug en tu prompt puede quemar cientos de euros en minutos.
Recursos:
- Dashboard de uso de OpenAIhttps://platform.openai.com/usage
- Dashboard de uso de Anthropichttps://console.anthropic.com/
- Helicone (nivel gratuito) Observabilidad basada en proxy que captura cada llamada LLM con tracking automático de costes.
- LiteLLM (open source, gratis) Interfaz unificada para 100+ proveedores LLM. Incluye gestión de presupuesto, rate limiting y tracking de gasto.
En qué enfocarte: Configurar límites de gasto por día/mes, implementar rate limits por usuario en tu API, usar modelos más baratos para tareas simples, cachear peticiones idénticas repetidas con Redis, y monitorear el coste por petición para detectar prompts caros pronto.
8. Caché
Si el 20% de tus usuarios hacen preguntas similares, estás pagando por la misma llamada LLM 20 veces.
El cacheo es la forma más simple de reducir costes y latencia simultáneamente.
Recursos:
- GPTCache (open source, gratis) Caché semántica diseñada específicamente para aplicaciones LLM. Usa similitud de embeddings para encontrar respuestas cacheadas para consultas semánticamente similares (no solo idénticas).
En qué enfocarte: Caché de coincidencia exacta para prompts idénticos, caché semántica para consultas similares, estrategias de invalidación de caché (TTL-based es lo más simple), y medir tasas de aciertos de caché para entender el ahorro real de costes.
✅ Hito del Mes 5
Al final de este mes deberías poder:
- Desplegar una app FastAPI + LLM en Docker con configuración de producción apropiada
- Manejar tareas de larga duración con background jobs y colas
- Asegurar tu API con auth, rate limits y gestión de API keys
- Trazar y depurar llamadas LLM usando Langfuse o LangSmith
- Gestionar prompts con control de versiones y capacidad de rollback
- Monitorear costes en tiempo real y configurar límites de gasto
- Cachear respuestas LLM para reducir latencia y costes
Mes 6: Especialízate y Vuélvete Empleable
Las habilidades y conocimientos que has adquirido se pueden aplicar en tres direcciones. Necesitas elegir una y enfocarte en la práctica.
Dirección 1: AI Product Engineer
La mejor opción si quieres trabajo en startups rápido.
Este es el camino más habitual. Construyes productos impulsados por IA con los que interactúan usuarios reales.
Ya tienes la mayoría de las habilidades de los Meses 1-5. Ahora profundiza en el lado del producto.
Enfócate en: apps LLM, RAG, agentes, despliegue, UX de producto.
Qué aprender este mes:
1. Construcción de Productos End-to-End
Para. Construir tutoriales. Construye productos que la gente pueda usar.
- Vercel AI SDK (gratis): La forma más rápida de construir UIs impulsadas por IA con soporte de streaming.
- Streamlit (gratis): Construye apps de datos y demos de IA en Python puro. Ideal para herramientas internas y MVPs.
En qué enfocarte: Construir 2-3 proyectos completos este mes que puedas demostrar. Una app "chatea con tus documentos", una herramienta interna impulsada por IA, o un agente que automatice un flujo de trabajo real. Lánzalos. Ponlos en GitHub. Despliégalos donde la gente pueda probarlos.
2. UX de Producto para IA
Los productos de IA fallan cuando la UX no tiene en cuenta las limitaciones del modelo.
- Nielsen Norman Group: AI UX Guidelines (gratis):
En qué enfocarte: Cómo manejar estados de carga con streaming, qué mostrar cuando el modelo se equivoca, cómo dejar que los usuarios den feedback, y diseñar para el hecho de que el output de IA es probabilístico.
Dirección 2: Applied ML / LLM Engineer
La mejor opción si quieres roles técnicos más profundos.
Esta dirección es para ingenieros que quieren ir más allá de las llamadas API y entender qué está pasando bajo el capó.
Enfócate en: fine-tuning, cuándo hacer fine-tune frente a prompting, evaluación, optimización de inferencia, modelos open-source, pipelines de entrenamiento.
Qué aprender este mes:
1. Cuándo Hacer Fine-tune frente a Prompt Engineering
La decisión más importante en ML aplicado: ¿necesitas cambiar el modelo, o solo cambiar cómo le hablas?
- Google ML Crash Course: Fine-tuning, Distillation, and Prompt Engineering (gratis)
- IBM: RAG vs Fine-Tuning vs Prompt Engineering (gratis)
Marco de decisión para memorizar:
- Empieza con prompt engineering (más barato, más rápido)
- Añade RAG si el modelo necesita acceso a datos específicos
- Haz fine-tuning solo cuando prompting + RAG no puede lograr la calidad, consistencia o latencia requerida
2. Fine-tuning en la Práctica
- Guía de Fine-tuning de OpenAI (oficial, gratis):
- HuggingFace Transformers Fine-tuning Tutorial (gratis):
- Unsloth (open source, gratis): — 2x más rápido con 80% menos memoria
- LLaMA-Factory (open source, gratis): — Framework unificado para fine-tuning de 100+ LLMs
3. Modelos Open-Source
- HuggingFace Model Hub (gratis): — El mayor repositorio de modelos open-source
- vLLM (open source, gratis): — Motor de inferencia LLM de alto rendimiento. El estándar para servir modelos open-source en producción
4. Optimización de Inferencia
Dirección 3: AI Automation Engineer
La mejor opción si quieres construir para empresas inmediatamente.
Esta dirección trata de automatizar flujos de trabajo empresariales reales con IA. Menos sobre construir productos, más sobre resolver problemas operacionales.
Enfócate en: orquestación de flujos de trabajo, automatización de procesos de negocio, sistemas multi-herramienta, casos de uso de CRM, documentos, email, soporte y operaciones.
Qué aprender este mes:
1. Orquestación de Flujos de Trabajo
La automatización empresarial real casi nunca es una sola llamada LLM. Son cadenas de acciones en múltiples sistemas.
- n8n (open source, gratis para autoalojar): — Automatización visual de flujos de trabajo con nodos IA. Conecta LLMs a 400+ integraciones
- LangGraph: Multi-Agent Workflows (gratis):
- Temporal (open source, gratis): — Motor de flujos de trabajo duraderos para procesos de larga duración y tolerantes a fallos
2. Automatización de Procesos de Negocio
En qué enfocarte: Identificar los objetivos de automatización de mayor ROI (normalmente tareas repetitivas, que consumen tiempo y basadas en reglas), construir automatizaciones que potencien a las personas en lugar de reemplazarlas, y medir el tiempo y dinero reales ahorrados.
3. Automatización de CRM, Documentos, Email y Soporte
Los casos de uso de automatización de IA más comunes y más valiosos.
- LangChain: Document Processing Pipelines (gratis):
Proyecto de práctica para la Dirección 3: Construye un sistema de calificación de leads end-to-end que:
- Importe leads de una fuente (CSV, API o formulario)
- Use un LLM para investigar cada lead (info de empresa, evaluación de fit)
- Puntúe y clasifique leads según tu ICP
- Redacte mensajes de outreach personalizados
- Registre todo en una hoja de cálculo o CRM
Esta es una automatización real y vendible que las empresas realmente pagan.
Conclusión: Qué puedes esperar después de estos 6 meses
Voy a ser honesto contigo:
Este roadmap no te convertirá en un AI Engineer senior en 6 meses.
Pero te convertirá en alguien que puede construir, lanzar y desplegar sistemas de IA reales que resuelven problemas reales.
Y ahora mismo, eso es exactamente por lo que paga el mercado.
La demanda de AI Engineers no se está ralentizando. Las ofertas de trabajo crecieron un 25% interanual. PwC encontró una prima salarial del 56% para roles que requieren habilidades de IA frente a los mismos roles sin ella. Solo el 1% de las empresas se consideran "maduras en IA", lo que significa que el 99% todavía necesita ayuda.
Si te empleas a tiempo completo:
- Junior AI Engineers empiezan en 80.000-110.000€ (EEUU: $90k-$130k)
- Mid-level (3-5 años): 130.000-170.000€ (EEUU: $155k-$200k)
- Senior: 165.000-300.000€+ (EEUU: $195k-$350k+)
La banda mid-level es la que crece más rápido porque las empresas necesitan desesperadamente personas que puedan lanzar IA en producción sin supervisión constante.
Si prefieres el freelance:
- Desarrollo de agentes IA: 150-250€/hora
- Implementación de RAG: 125-200€/hora
- Integración LLM: 100-175€/hora
Y si vas por la ruta de consultoría, puedes cobrar:
- 300-5.000€ por configurar un agente IA para un negocio
- 500-2.000€/mes por gestión de contenido IA
- 1.000-4.000€ por automatizar soporte al cliente
- 500-2.000€ por configuración de outreach automatizado
Esto es lo que realmente quiero que te lleves de todo esto:
Elige un proyecto de cada mes y constrúyelo. No leas sobre él. No veas tutoriales. Constrúyelo, rómpelo, arréglalo, despliégalo, ponlo en GitHub. Los ingenieros que son contratados son los que muestran lo que han construido, no lo que han estudiado.
Empieza a compartir lo que aprendes. Escribe sobre ello en X, LinkedIn, donde sea. Enseñar es la forma más rápida de aprender y construye tu reputación al mismo tiempo.
Por favor, no esperes hasta sentirte listo. Nunca te sentirás listo. La brecha entre "estoy aprendiendo" y "estoy construyendo" es donde la mayoría de la gente se queda atascada para siempre.
Empieza a aplicar, empieza a hacer freelance, empieza a ofrecer servicios en el momento en que tengas proyectos funcionando. Aunque no sean perfectos. El mercado no recompensa la perfección. Recompensa a las personas que pueden lanzar.
6 meses son suficientes para cambiarlo todo si realmente te pones a trabajar
https://x.com/aiscwork
https://accesia.info/
https://www.skool.com/imperium-ia-5347/about?ref=b5ada72acc174b038a45a147de244712