5 Repos Para Volverte AI Engineer
Antes de pagar dos mil dólares por un bootcamp, párate aquí. Hay 5 repositorios gratis en GitHub que enseñan exactamente lo mismo: instalar tu propio modelo, conectarlo con tus apps, hacerlo leer tus documentos, armar equipos de agentes y construir un portafolio real. Esta guía los explica desde cero — sin asumir que sabes nada — y te entrega los comandos, los snippets y la ruta para arrancar hoy.
De tu compu a tu primer agente real
Modelo local · framework · RAG · equipo de agentes · portafolio
Cada repo cubre una clase del bootcamp. Los hacemos en orden, semana por semana, hasta que tengas un proyecto completo que mostrar en LinkedIn o en una entrevista.
intro · qué hace un AI engineer
Qué es un AI engineer (sin tecnicismos)
No es lo mismo que un ML engineer. El que entrena modelos desde cero, pelea con matemáticas y necesita una computadora carísima — ese es el ingeniero de machine learning. El AI engineer agarra modelos que ya existen (Llama, Claude, GPT) y los conecta con apps, datos y procesos del mundo real. Es ensamblar piezas, no fabricarlas.
Qué hace un día normal: escribe prompts, conecta APIs, mete documentos a un sistema de búsqueda inteligente, arma agentes que automatizan tareas, ajusta reglas. La mayoría del trabajo es código que pega cosas — y eso se aprende rápido si tienes los repos correctos enfrente.
Cuánto se cobra: las vacantes de AI engineer en Latinoamérica empiezan entre 2 mil y 4 mil dólares al mes en remoto. En empresas de Estados Unidos, los junior arrancan en 100 mil dólares al año. La barrera real no es el dinero del bootcamp — es saber armar algo que funcione y enseñarlo.
el stack · por qué estos 5
Cada repo cubre una clase del bootcamp
La progresión es la misma de cualquier curso pago: primero ejecutas un modelo, después lo conectas con código, después le metes tus datos, después armas equipos de agentes, y al final tienes ejemplos reales para mostrar. Cada uno de estos 5 repositorios cubre exactamente una de esas etapas — y los cinco juntos te llevan de cero a tu primer proyecto en línea.
- 1
Ollama · 170k estrellas
Tu modelo de IA corriendo en tu computadora.
- 2
LangChain · 135k estrellas
El pegamento entre el modelo y tus datos o aplicaciones.
- 3
LlamaIndex · 48 mil estrellas
El cerebro que responde con tus propios documentos (esto se llama RAG).
- 4
CrewAI · 49 mil estrellas
Tu equipo de varios agentes con roles distintos.
- 5
Awesome LLM Apps · 107k estrellas
Más de 100 apps listas para clonar y subir a tu portafolio.
glosario · sin tecnicismos
Las palabras raras, traducidas
Antes de meternos a los repos, dejamos limpia la jerga. Si ya conoces estos términos, salta a la siguiente sección — pero si alguno te suena chino, lee aquí primero. La mitad del miedo de empezar viene de palabras que parecen difíciles y en realidad describen cosas simples.
LLM (Large Language Model)
Un cerebro entrenado con millones de libros, conversaciones y páginas web. Le hablas en texto y te responde en texto. ChatGPT, Claude, Llama y Gemini son todos LLMs.
Modelo
Es lo mismo que el LLM. Cuando alguien dice modelo, suele referirse al cerebro de IA que está usando.
Repo (repositorio)
Una carpeta de código publicada en GitHub. La descargas, la ejecutas y le agregas tus cambios. Como un Google Drive, pero para programadores.
RAG (Retrieval-Augmented Generation)
Truco para que el modelo conteste con tus documentos en vez de inventar. Primero busca en tus archivos, después responde citando lo que encontró.
Agente
Un modelo con un objetivo y herramientas. No solo responde — actúa. Manda correos, abre páginas, ejecuta comandos. Si le das poderes, los usa.
Framework
Un estuche con piezas estándar para no empezar desde cero. LangChain es un framework: te da los bloques que casi todos los proyectos de IA necesitan.
Embedding
Una traducción del texto a números. Permite que la computadora compare significados (qué tan parecidos son dos textos), no solo letras. Es la magia detrás de RAG.
Vacante
El anuncio de trabajo. Cuando decimos sale en cada vacante, es que aparece como requisito en casi todos los puestos de AI engineer publicados.
MCP (Model Context Protocol)
El estándar nuevo para conectar modelos con herramientas externas (Gmail, Notion, tu base de datos). Lo veremos cuando combines varios repos.
Prompt
Las instrucciones que le escribes al modelo. Mejores prompts, mejores respuestas. Casi todo el trabajo de un AI engineer es escribir y afinar prompts.
Token
La unidad mínima del texto para el modelo. Un token equivale más o menos a 4 letras. Las APIs cobran por tokens; en local con Ollama no pagas nada.
Bootcamp
Curso intensivo de varias semanas. Los de AI engineer cobran entre mil y tres mil dólares. Los 5 repos de esta guía cubren los temas clave de la mayoría de ellos.
los repos · uno por uno
Los 5 repositorios, explicados desde cero
Cada bloque tiene la misma estructura: qué es, qué problema resuelve, qué construyes con él, el comando de instalación y un primer ejemplo de uso. Si copias y pegas en orden, los 5 quedan funcionando en una tarde.
1. Ollama
170k estrellasTu modelo de IA corriendo en tu computadora.
La analogía simple: Como bajarte Spotify, pero en vez de música ejecutas un cerebro de IA. Lo abres, te responde. Sin tarjeta, sin renta mensual, sin internet siquiera.
Qué hace exactamente: Instala y corre modelos abiertos como Llama 3, Mistral o Qwen directamente en tu máquina. Un comando y ya tienes un asistente local.
El problema que resuelve: Antes, para escribir tu primera línea de código con IA tenías que pagar una API o configurar un servidor en la nube. Ollama te entrega el modelo en tu disco duro y le hablas como si fuera ChatGPT — pero gratis y privado.
Qué construyes con él: Tu primer chatbot offline, un asistente que vive dentro de la terminal, o el motor que después conectas con el resto del stack.
Instalar Ollama y bajar tu primer modelo
curl -fsSL https://ollama.com/install.sh | sh && ollama run llama3.2Habla con tu modelo local
Una vez que ollama run llama3.2 esté corriendo, escribe esto en la terminal y verás cómo responde sin internet ni cuenta.
Explícame, como si tuviera 8 años, qué es un modelo de lenguaje y por qué puedes correrme en una computadora normal sin pedir permiso a nadie.
2. LangChain
135k estrellasEl pegamento entre el modelo y tus datos o aplicaciones.
La analogía simple: Como los conectores LEGO. El modelo es una pieza, tu base de datos es otra, una API es otra. LangChain hace que todas embonen entre sí.
Qué hace exactamente: Te da los bloques estándar para conectar cualquier LLM con cualquier fuente de datos, herramienta externa o lógica de negocio. Aparece en casi todas las vacantes de AI engineer.
El problema que resuelve: Sin LangChain, tu código vive amarrado a un solo modelo. Cuando mañana sale uno mejor, empiezas de cero. Con LangChain, cambias un import y listo.
Qué construyes con él: Asistentes que leen tu calendario, agentes que llaman APIs, chatbots con memoria que recuerdan toda la conversación, automatizaciones que mezclan texto y datos reales.
Instalar LangChain con el conector de Ollama
pip install langchain langchain-community langchain-ollamaTu primera cadena: prompt + modelo local
Pega esto en un archivo primer_chain.py y córrelo con python primer_chain.py. Conecta tu Ollama con un prompt template.
from langchain_ollama import OllamaLLM
from langchain_core.prompts import ChatPromptTemplate
modelo = OllamaLLM(model="llama3.2")
prompt = ChatPromptTemplate.from_template(
"Explica {tema} en una frase simple, como para un niño."
)
cadena = prompt | modelo
print(cadena.invoke({"tema": "qué es una API"}))3. LlamaIndex
48 mil estrellasEl cerebro que responde con tus propios documentos (esto se llama RAG).
La analogía simple: Como un bibliotecario que ya leyó todos tus libros. Le dejas tus PDFs, tus notas de Notion, tus correos. Le preguntas algo y te responde citando lo tuyo, no inventando.
Qué hace exactamente: Lee tus archivos (PDF, Word, Markdown, Notion, bases de datos), los rebana en pedazos pequeños, los indexa y se los pasa al modelo cuando le preguntas algo relacionado.
El problema que resuelve: Los modelos no conocen tus documentos privados. Sin RAG, te inventan respuestas que suenan bien pero son falsas. Con LlamaIndex, contestan con datos reales tuyos.
Qué construyes con él: Un chat sobre los contratos de tu empresa, un asistente que busca en toda tu wiki interna, un buscador inteligente sobre tu carpeta de PDFs, un soporte que responde con tu base de conocimiento.
Instalar LlamaIndex
pip install llama-index llama-index-llms-ollama llama-index-embeddings-ollamaIndexa una carpeta de PDFs y pregúntale
Crea una carpeta mis_pdfs con cualquier documento. Este script lo indexa y responde con base en tu contenido.
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
Settings.llm = Ollama(model="llama3.2", request_timeout=60)
Settings.embed_model = OllamaEmbedding(model_name="nomic-embed-text")
documentos = SimpleDirectoryReader("./mis_pdfs").load_data()
indice = VectorStoreIndex.from_documents(documentos)
motor = indice.as_query_engine()
respuesta = motor.query("Resume el documento principal en 5 puntos.")
print(respuesta)4. CrewAI
49 mil estrellasTu equipo de varios agentes con roles distintos.
La analogía simple: Como armar un equipo en una agencia. Uno investiga, otro escribe, el tercero revisa que todo cuadre. Tú nada más oprimes empezar y ellos se coordinan entre sí.
Qué hace exactamente: Te deja definir varios agentes especializados (investigador, escritor, revisor, etc.), pasarles una meta común y dejar que se entreguen información entre sí hasta cerrar la tarea.
El problema que resuelve: Un solo agente se ahoga con tareas grandes. Cinco agentes especializados terminan en minutos lo que tú harías en horas. Y cada uno se enfoca en lo suyo, sin perder el hilo.
Qué construyes con él: Equipos que escriben artículos enteros (busca, redacta, corrige), agentes de soporte que escalan tickets, equipos de análisis financiero, ciclos completos de creación de contenido.
Instalar CrewAI con sus herramientas
pip install 'crewai[tools]'Tu primer equipo: investigador y escritor
Define dos agentes con roles, pásales una meta común y oprime empezar. Te entregan un resumen escrito de noticias frescas.
from crewai import Agent, Task, Crew, LLM
llm_local = LLM(model="ollama/llama3.2", base_url="http://localhost:11434")
investigador = Agent(
role="Investigador",
goal="Encontrar las 3 noticias más recientes sobre IA",
backstory="Eres un periodista experto en tecnología.",
llm=llm_local,
)
escritor = Agent(
role="Escritor",
goal="Convertir las noticias en un resumen breve para principiantes",
backstory="Escribes claro y sin jergas.",
llm=llm_local,
)
tarea_invest = Task(
description="Busca y lista 3 noticias frescas de IA con su fuente.",
expected_output="Lista de 3 noticias con titular y fuente.",
agent=investigador,
)
tarea_redaccion = Task(
description="Redacta un resumen de 200 palabras con esas 3 noticias.",
expected_output="Resumen de 200 palabras en español sencillo.",
agent=escritor,
)
equipo = Crew(agents=[investigador, escritor], tasks=[tarea_invest, tarea_redaccion])
print(equipo.kickoff())5. Awesome LLM Apps
107k estrellasMás de 100 apps listas para clonar y subir a tu portafolio.
La analogía simple: Como una tienda de plantillas, pero gratis y de proyectos completos de IA. Eliges una, la clonas, le pones tu marca y al día siguiente ya tienes algo que mostrar.
Qué hace exactamente: Repositorio con más de 100 aplicaciones de IA listas para usar, agrupadas por categoría: agentes, RAG, multi-agente, voz, finanzas, salud y más.
El problema que resuelve: Saber programar con IA pero no tener nada que enseñar es lo que te frena en una entrevista. Aquí tienes 100 ideas con código completo, instalación incluida.
Qué construyes con él: Tu portafolio: clonas una app, la personalizas con tu nicho, la subes a GitHub, la publicas en LinkedIn. De cero a un proyecto en línea en un fin de semana.
Clonar el repo de las 100+ apps
git clone https://github.com/Shubhamsaboo/awesome-llm-apps.gitPídele a Claude Code que elija las 3 apps para ti
Después de clonar el repo, abre Claude Code en esa carpeta y pega este prompt. Te recomienda qué clonar según tu nicho.
Acabo de clonar el repo awesome-llm-apps en esta carpeta. Lee el README principal y la lista de categorías. Luego recomiéndame las 3 apps más fáciles de adaptar para alguien que recién empieza, considerando que mi nicho es [TU NICHO — ejemplo: bienes raíces, fitness, consultoría]. Para cada una, dime: 1) qué hace en una frase simple, 2) qué cambios mínimos necesito para que se vea de mi marca, 3) qué tan rápido la puedo subir a mi portafolio.
ruta · 5 semanas
Una semana por repo, en orden
La trampa de cualquier bootcamp es ir muy rápido. Aquí lo hacemos al revés: una semana por repositorio, con una tarea concreta cada semana. Al cierre del mes y medio, tienes un repo público en tu GitHub por cada herramienta — y un proyecto final que las junta a todas.
- 1
Semana 1 · Tu primer cerebro de IA en local · Ollama
Instala Ollama, baja Llama 3.2, hazle 10 preguntas distintas. Anota cómo responde, qué tan rápido y qué errores comete. El objetivo es perderle el miedo al modelo.
- 2
Semana 2 · Conectar el modelo con código · LangChain
Escribe 3 cadenas distintas: una que traduce, una que resume y una que responde preguntas con un prompt template. Súbelas a un repo nuevo en tu GitHub.
- 3
Semana 3 · Que responda con tus documentos (RAG) · LlamaIndex
Mete 5 PDFs en una carpeta (manual de usuario, libro, notas, lo que sea). Indéxalos con LlamaIndex y arma un mini chat por consola que responda con base en ellos.
- 4
Semana 4 · Tu primer equipo de agentes · CrewAI
Define un equipo de 3 agentes (investigador, escritor, revisor) que produzca un artículo de blog completo sobre cualquier tema. Publica el artículo en LinkedIn como demo.
- 5
Semana 5 · Tu portafolio público · Awesome LLM Apps
Clona 2 apps del repo, personalízalas con tu nicho (cambia textos, colores y logo), súbelas a tu GitHub. Escribe un post en LinkedIn explicando qué hacen y qué aprendiste.
Tip: cada viernes publica en LinkedIn lo que aprendiste esa semana — aunque sea una imagen del modelo respondiendo en tu terminal. Quien te va a contratar se entera de ti porque te ven construir, no porque te ven estudiar.
proyecto final · pon todo junto
Tu primer asistente real, usando los 5 repos
En la semana 6 (la que sigue después de la ruta), juntas todo lo aprendido en un proyecto único: un asistente que corre 100% en tu computadora, lee tus documentos, te responde con base en ellos y propone una próxima acción. Estos son los 6 pasos para llegar.
- 1
Levanta el cerebro con Ollama
Corre ollama run llama3.2 en tu terminal. Déjalo abierto en segundo plano. Esa terminal es ahora tu motor de IA gratuito y privado.
- 2
Mete tus documentos con LlamaIndex
Crea una carpeta mis_pdfs con los archivos sobre tu nicho (manuales, ebooks, notas, contratos). Indéxalos con el snippet de la sección 4 — quedan listos para consulta.
- 3
Conecta el flujo con LangChain
Usa LangChain para encadenar: pregunta del usuario → búsqueda en LlamaIndex → respuesta del modelo. Es el pegamento que une las piezas.
- 4
Arma el equipo con CrewAI
Define tres agentes: uno busca en los documentos, otro responde, un tercero propone una próxima acción (cita, correo, agenda). Así dejas de ser un chat y te conviertes en un asistente que actúa.
- 5
Roba la interfaz de Awesome LLM Apps
Clona la app de chat más simple del repo (suelen ser Streamlit). Pégale tu lógica de los pasos 1 a 4 y reemplaza colores, logo y textos. En un día tienes una app real con tu marca.
- 6
Súbelo a GitHub y publícalo
git init, primer commit, push a tu cuenta. Después escribe un post en LinkedIn contando qué construiste, qué aprendiste y a quién le sirve. Eso es lo que ven los reclutadores.
recursos · documentación oficial
Para profundizar después de la guía
Cuando termines la ruta, vas a querer ir más a fondo en alguno de los repos. Estos son los enlaces oficiales que vale la pena tener guardados desde ya.
- Documentación oficial de Ollama →
Lista de modelos disponibles, comandos de la CLI y cómo usar Ollama desde tu propio código.
- Documentación oficial de LangChain (Python) →
Tutoriales, conceptos y referencias de cada bloque. La sección How-to guides es la más práctica.
- Documentación oficial de LlamaIndex →
Guía completa de RAG, conectores para más de 200 fuentes de datos y ejemplos por caso de uso.
- Documentación oficial de CrewAI →
Cómo definir agentes, tareas, herramientas y procesos. Incluye ejemplos de equipos para distintos sectores.
- Anthropic Cookbook →
Recetario oficial de Anthropic con recetas en código para prompt engineering, herramientas, RAG y agentes con Claude.
cierre · ya no hay excusa
Se acabó pagar curso por algo que GitHub regala
Los 5 repos de esta guía cubren los temas centrales de prácticamente cualquier bootcamp de AI engineer. No tienes que comprar uno para empezar — tienes que abrir tu terminal hoy en la noche y correr el primer comando de Ollama.
Si te sirvió la guía, compártela con alguien que esté pensando en pagar un curso caro. Y si te trabas en alguna de las semanas o quieres una guía más profunda de uno de los repos en particular, déjalo en comentarios. Si el tema lo pide la mayoría, sale.
Guía de la comunidad
Se acabó pagar curso por algo que GitHub regala. Esta guía es parte de la bóveda de tododeia, una colección libre de recursos para quienes quieren construir con IA todos los días.
100+ Agentes de IA
El deep dive de Awesome LLM Apps
5 Repos Para Ahorrar Claude
Cuando ya programes, cuida tu cuenta
Tu Agente Automático
Siguiente paso: agentes con la API de Claude
¿En qué etapa estás hoy?
Si nunca corriste un modelo, empieza por Ollama esta misma noche. Si ya usaste LangChain alguna vez, salta directo a la semana 3 con LlamaIndex y RAG. Si ya armaste un agente suelto, ve por CrewAI y arma tu primer equipo. La ruta no es lineal — es para que identifiques tu siguiente paso.