comunidadbóvedacinco-repos-ai-engineer

5 Repos Para Volverte AI Engineer

Antes de pagar dos mil dólares por un bootcamp, párate aquí. Hay 5 repositorios gratis en GitHub que enseñan exactamente lo mismo: instalar tu propio modelo, conectarlo con tus apps, hacerlo leer tus documentos, armar equipos de agentes y construir un portafolio real. Esta guía los explica desde cero — sin asumir que sabes nada — y te entrega los comandos, los snippets y la ruta para arrancar hoy.

De tu compu a tu primer agente real

Modelo local · framework · RAG · equipo de agentes · portafolio

Cada repo cubre una clase del bootcamp. Los hacemos en orden, semana por semana, hasta que tengas un proyecto completo que mostrar en LinkedIn o en una entrevista.

5 repos · 100% gratisruta de 5 semanassin tarjeta · sin cuentade cero a tu primer agente real

intro · qué hace un AI engineer

Qué es un AI engineer (sin tecnicismos)

No es lo mismo que un ML engineer. El que entrena modelos desde cero, pelea con matemáticas y necesita una computadora carísima — ese es el ingeniero de machine learning. El AI engineer agarra modelos que ya existen (Llama, Claude, GPT) y los conecta con apps, datos y procesos del mundo real. Es ensamblar piezas, no fabricarlas.

Qué hace un día normal: escribe prompts, conecta APIs, mete documentos a un sistema de búsqueda inteligente, arma agentes que automatizan tareas, ajusta reglas. La mayoría del trabajo es código que pega cosas — y eso se aprende rápido si tienes los repos correctos enfrente.

Cuánto se cobra: las vacantes de AI engineer en Latinoamérica empiezan entre 2 mil y 4 mil dólares al mes en remoto. En empresas de Estados Unidos, los junior arrancan en 100 mil dólares al año. La barrera real no es el dinero del bootcamp — es saber armar algo que funcione y enseñarlo.

el stack · por qué estos 5

Cada repo cubre una clase del bootcamp

La progresión es la misma de cualquier curso pago: primero ejecutas un modelo, después lo conectas con código, después le metes tus datos, después armas equipos de agentes, y al final tienes ejemplos reales para mostrar. Cada uno de estos 5 repositorios cubre exactamente una de esas etapas — y los cinco juntos te llevan de cero a tu primer proyecto en línea.

  1. 1

    Ollama · 170k estrellas

    Tu modelo de IA corriendo en tu computadora.

  2. 2

    LangChain · 135k estrellas

    El pegamento entre el modelo y tus datos o aplicaciones.

  3. 3

    LlamaIndex · 48 mil estrellas

    El cerebro que responde con tus propios documentos (esto se llama RAG).

  4. 4

    CrewAI · 49 mil estrellas

    Tu equipo de varios agentes con roles distintos.

  5. 5

    Awesome LLM Apps · 107k estrellas

    Más de 100 apps listas para clonar y subir a tu portafolio.

glosario · sin tecnicismos

Las palabras raras, traducidas

Antes de meternos a los repos, dejamos limpia la jerga. Si ya conoces estos términos, salta a la siguiente sección — pero si alguno te suena chino, lee aquí primero. La mitad del miedo de empezar viene de palabras que parecen difíciles y en realidad describen cosas simples.

LLM (Large Language Model)

Un cerebro entrenado con millones de libros, conversaciones y páginas web. Le hablas en texto y te responde en texto. ChatGPT, Claude, Llama y Gemini son todos LLMs.

Modelo

Es lo mismo que el LLM. Cuando alguien dice modelo, suele referirse al cerebro de IA que está usando.

Repo (repositorio)

Una carpeta de código publicada en GitHub. La descargas, la ejecutas y le agregas tus cambios. Como un Google Drive, pero para programadores.

RAG (Retrieval-Augmented Generation)

Truco para que el modelo conteste con tus documentos en vez de inventar. Primero busca en tus archivos, después responde citando lo que encontró.

Agente

Un modelo con un objetivo y herramientas. No solo responde — actúa. Manda correos, abre páginas, ejecuta comandos. Si le das poderes, los usa.

Framework

Un estuche con piezas estándar para no empezar desde cero. LangChain es un framework: te da los bloques que casi todos los proyectos de IA necesitan.

Embedding

Una traducción del texto a números. Permite que la computadora compare significados (qué tan parecidos son dos textos), no solo letras. Es la magia detrás de RAG.

Vacante

El anuncio de trabajo. Cuando decimos sale en cada vacante, es que aparece como requisito en casi todos los puestos de AI engineer publicados.

MCP (Model Context Protocol)

El estándar nuevo para conectar modelos con herramientas externas (Gmail, Notion, tu base de datos). Lo veremos cuando combines varios repos.

Prompt

Las instrucciones que le escribes al modelo. Mejores prompts, mejores respuestas. Casi todo el trabajo de un AI engineer es escribir y afinar prompts.

Token

La unidad mínima del texto para el modelo. Un token equivale más o menos a 4 letras. Las APIs cobran por tokens; en local con Ollama no pagas nada.

Bootcamp

Curso intensivo de varias semanas. Los de AI engineer cobran entre mil y tres mil dólares. Los 5 repos de esta guía cubren los temas clave de la mayoría de ellos.

los repos · uno por uno

Los 5 repositorios, explicados desde cero

Cada bloque tiene la misma estructura: qué es, qué problema resuelve, qué construyes con él, el comando de instalación y un primer ejemplo de uso. Si copias y pegas en orden, los 5 quedan funcionando en una tarde.

1. Ollama

170k estrellas

Tu modelo de IA corriendo en tu computadora.

La analogía simple: Como bajarte Spotify, pero en vez de música ejecutas un cerebro de IA. Lo abres, te responde. Sin tarjeta, sin renta mensual, sin internet siquiera.

Qué hace exactamente: Instala y corre modelos abiertos como Llama 3, Mistral o Qwen directamente en tu máquina. Un comando y ya tienes un asistente local.

El problema que resuelve: Antes, para escribir tu primera línea de código con IA tenías que pagar una API o configurar un servidor en la nube. Ollama te entrega el modelo en tu disco duro y le hablas como si fuera ChatGPT — pero gratis y privado.

Qué construyes con él: Tu primer chatbot offline, un asistente que vive dentro de la terminal, o el motor que después conectas con el resto del stack.

Ver el repo en GitHub →

Instalar Ollama y bajar tu primer modelo

curl -fsSL https://ollama.com/install.sh | sh && ollama run llama3.2

Habla con tu modelo local

Una vez que ollama run llama3.2 esté corriendo, escribe esto en la terminal y verás cómo responde sin internet ni cuenta.

Explícame, como si tuviera 8 años, qué es un modelo de lenguaje y por qué puedes correrme en una computadora normal sin pedir permiso a nadie.

2. LangChain

135k estrellas

El pegamento entre el modelo y tus datos o aplicaciones.

La analogía simple: Como los conectores LEGO. El modelo es una pieza, tu base de datos es otra, una API es otra. LangChain hace que todas embonen entre sí.

Qué hace exactamente: Te da los bloques estándar para conectar cualquier LLM con cualquier fuente de datos, herramienta externa o lógica de negocio. Aparece en casi todas las vacantes de AI engineer.

El problema que resuelve: Sin LangChain, tu código vive amarrado a un solo modelo. Cuando mañana sale uno mejor, empiezas de cero. Con LangChain, cambias un import y listo.

Qué construyes con él: Asistentes que leen tu calendario, agentes que llaman APIs, chatbots con memoria que recuerdan toda la conversación, automatizaciones que mezclan texto y datos reales.

Ver el repo en GitHub →

Instalar LangChain con el conector de Ollama

pip install langchain langchain-community langchain-ollama

Tu primera cadena: prompt + modelo local

Pega esto en un archivo primer_chain.py y córrelo con python primer_chain.py. Conecta tu Ollama con un prompt template.

from langchain_ollama import OllamaLLM
from langchain_core.prompts import ChatPromptTemplate

modelo = OllamaLLM(model="llama3.2")
prompt = ChatPromptTemplate.from_template(
    "Explica {tema} en una frase simple, como para un niño."
)
cadena = prompt | modelo

print(cadena.invoke({"tema": "qué es una API"}))

3. LlamaIndex

48 mil estrellas

El cerebro que responde con tus propios documentos (esto se llama RAG).

La analogía simple: Como un bibliotecario que ya leyó todos tus libros. Le dejas tus PDFs, tus notas de Notion, tus correos. Le preguntas algo y te responde citando lo tuyo, no inventando.

Qué hace exactamente: Lee tus archivos (PDF, Word, Markdown, Notion, bases de datos), los rebana en pedazos pequeños, los indexa y se los pasa al modelo cuando le preguntas algo relacionado.

El problema que resuelve: Los modelos no conocen tus documentos privados. Sin RAG, te inventan respuestas que suenan bien pero son falsas. Con LlamaIndex, contestan con datos reales tuyos.

Qué construyes con él: Un chat sobre los contratos de tu empresa, un asistente que busca en toda tu wiki interna, un buscador inteligente sobre tu carpeta de PDFs, un soporte que responde con tu base de conocimiento.

Ver el repo en GitHub →

Instalar LlamaIndex

pip install llama-index llama-index-llms-ollama llama-index-embeddings-ollama

Indexa una carpeta de PDFs y pregúntale

Crea una carpeta mis_pdfs con cualquier documento. Este script lo indexa y responde con base en tu contenido.

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding

Settings.llm = Ollama(model="llama3.2", request_timeout=60)
Settings.embed_model = OllamaEmbedding(model_name="nomic-embed-text")

documentos = SimpleDirectoryReader("./mis_pdfs").load_data()
indice = VectorStoreIndex.from_documents(documentos)

motor = indice.as_query_engine()
respuesta = motor.query("Resume el documento principal en 5 puntos.")
print(respuesta)

4. CrewAI

49 mil estrellas

Tu equipo de varios agentes con roles distintos.

La analogía simple: Como armar un equipo en una agencia. Uno investiga, otro escribe, el tercero revisa que todo cuadre. Tú nada más oprimes empezar y ellos se coordinan entre sí.

Qué hace exactamente: Te deja definir varios agentes especializados (investigador, escritor, revisor, etc.), pasarles una meta común y dejar que se entreguen información entre sí hasta cerrar la tarea.

El problema que resuelve: Un solo agente se ahoga con tareas grandes. Cinco agentes especializados terminan en minutos lo que tú harías en horas. Y cada uno se enfoca en lo suyo, sin perder el hilo.

Qué construyes con él: Equipos que escriben artículos enteros (busca, redacta, corrige), agentes de soporte que escalan tickets, equipos de análisis financiero, ciclos completos de creación de contenido.

Ver el repo en GitHub →

Instalar CrewAI con sus herramientas

pip install 'crewai[tools]'

Tu primer equipo: investigador y escritor

Define dos agentes con roles, pásales una meta común y oprime empezar. Te entregan un resumen escrito de noticias frescas.

from crewai import Agent, Task, Crew, LLM

llm_local = LLM(model="ollama/llama3.2", base_url="http://localhost:11434")

investigador = Agent(
    role="Investigador",
    goal="Encontrar las 3 noticias más recientes sobre IA",
    backstory="Eres un periodista experto en tecnología.",
    llm=llm_local,
)
escritor = Agent(
    role="Escritor",
    goal="Convertir las noticias en un resumen breve para principiantes",
    backstory="Escribes claro y sin jergas.",
    llm=llm_local,
)

tarea_invest = Task(
    description="Busca y lista 3 noticias frescas de IA con su fuente.",
    expected_output="Lista de 3 noticias con titular y fuente.",
    agent=investigador,
)
tarea_redaccion = Task(
    description="Redacta un resumen de 200 palabras con esas 3 noticias.",
    expected_output="Resumen de 200 palabras en español sencillo.",
    agent=escritor,
)

equipo = Crew(agents=[investigador, escritor], tasks=[tarea_invest, tarea_redaccion])
print(equipo.kickoff())

5. Awesome LLM Apps

107k estrellas

Más de 100 apps listas para clonar y subir a tu portafolio.

La analogía simple: Como una tienda de plantillas, pero gratis y de proyectos completos de IA. Eliges una, la clonas, le pones tu marca y al día siguiente ya tienes algo que mostrar.

Qué hace exactamente: Repositorio con más de 100 aplicaciones de IA listas para usar, agrupadas por categoría: agentes, RAG, multi-agente, voz, finanzas, salud y más.

El problema que resuelve: Saber programar con IA pero no tener nada que enseñar es lo que te frena en una entrevista. Aquí tienes 100 ideas con código completo, instalación incluida.

Qué construyes con él: Tu portafolio: clonas una app, la personalizas con tu nicho, la subes a GitHub, la publicas en LinkedIn. De cero a un proyecto en línea en un fin de semana.

Ver el repo en GitHub →

Clonar el repo de las 100+ apps

git clone https://github.com/Shubhamsaboo/awesome-llm-apps.git

Pídele a Claude Code que elija las 3 apps para ti

Después de clonar el repo, abre Claude Code en esa carpeta y pega este prompt. Te recomienda qué clonar según tu nicho.

Acabo de clonar el repo awesome-llm-apps en esta carpeta. Lee el README principal y la lista de categorías. Luego recomiéndame las 3 apps más fáciles de adaptar para alguien que recién empieza, considerando que mi nicho es [TU NICHO — ejemplo: bienes raíces, fitness, consultoría]. Para cada una, dime: 1) qué hace en una frase simple, 2) qué cambios mínimos necesito para que se vea de mi marca, 3) qué tan rápido la puedo subir a mi portafolio.

ruta · 5 semanas

Una semana por repo, en orden

La trampa de cualquier bootcamp es ir muy rápido. Aquí lo hacemos al revés: una semana por repositorio, con una tarea concreta cada semana. Al cierre del mes y medio, tienes un repo público en tu GitHub por cada herramienta — y un proyecto final que las junta a todas.

  1. 1

    Semana 1 · Tu primer cerebro de IA en local · Ollama

    Instala Ollama, baja Llama 3.2, hazle 10 preguntas distintas. Anota cómo responde, qué tan rápido y qué errores comete. El objetivo es perderle el miedo al modelo.

  2. 2

    Semana 2 · Conectar el modelo con código · LangChain

    Escribe 3 cadenas distintas: una que traduce, una que resume y una que responde preguntas con un prompt template. Súbelas a un repo nuevo en tu GitHub.

  3. 3

    Semana 3 · Que responda con tus documentos (RAG) · LlamaIndex

    Mete 5 PDFs en una carpeta (manual de usuario, libro, notas, lo que sea). Indéxalos con LlamaIndex y arma un mini chat por consola que responda con base en ellos.

  4. 4

    Semana 4 · Tu primer equipo de agentes · CrewAI

    Define un equipo de 3 agentes (investigador, escritor, revisor) que produzca un artículo de blog completo sobre cualquier tema. Publica el artículo en LinkedIn como demo.

  5. 5

    Semana 5 · Tu portafolio público · Awesome LLM Apps

    Clona 2 apps del repo, personalízalas con tu nicho (cambia textos, colores y logo), súbelas a tu GitHub. Escribe un post en LinkedIn explicando qué hacen y qué aprendiste.

Tip: cada viernes publica en LinkedIn lo que aprendiste esa semana — aunque sea una imagen del modelo respondiendo en tu terminal. Quien te va a contratar se entera de ti porque te ven construir, no porque te ven estudiar.

proyecto final · pon todo junto

Tu primer asistente real, usando los 5 repos

En la semana 6 (la que sigue después de la ruta), juntas todo lo aprendido en un proyecto único: un asistente que corre 100% en tu computadora, lee tus documentos, te responde con base en ellos y propone una próxima acción. Estos son los 6 pasos para llegar.

  1. 1

    Levanta el cerebro con Ollama

    Corre ollama run llama3.2 en tu terminal. Déjalo abierto en segundo plano. Esa terminal es ahora tu motor de IA gratuito y privado.

  2. 2

    Mete tus documentos con LlamaIndex

    Crea una carpeta mis_pdfs con los archivos sobre tu nicho (manuales, ebooks, notas, contratos). Indéxalos con el snippet de la sección 4 — quedan listos para consulta.

  3. 3

    Conecta el flujo con LangChain

    Usa LangChain para encadenar: pregunta del usuario → búsqueda en LlamaIndex → respuesta del modelo. Es el pegamento que une las piezas.

  4. 4

    Arma el equipo con CrewAI

    Define tres agentes: uno busca en los documentos, otro responde, un tercero propone una próxima acción (cita, correo, agenda). Así dejas de ser un chat y te conviertes en un asistente que actúa.

  5. 5

    Roba la interfaz de Awesome LLM Apps

    Clona la app de chat más simple del repo (suelen ser Streamlit). Pégale tu lógica de los pasos 1 a 4 y reemplaza colores, logo y textos. En un día tienes una app real con tu marca.

  6. 6

    Súbelo a GitHub y publícalo

    git init, primer commit, push a tu cuenta. Después escribe un post en LinkedIn contando qué construiste, qué aprendiste y a quién le sirve. Eso es lo que ven los reclutadores.

recursos · documentación oficial

Para profundizar después de la guía

Cuando termines la ruta, vas a querer ir más a fondo en alguno de los repos. Estos son los enlaces oficiales que vale la pena tener guardados desde ya.

cierre · ya no hay excusa

Se acabó pagar curso por algo que GitHub regala

Los 5 repos de esta guía cubren los temas centrales de prácticamente cualquier bootcamp de AI engineer. No tienes que comprar uno para empezar — tienes que abrir tu terminal hoy en la noche y correr el primer comando de Ollama.

Si te sirvió la guía, compártela con alguien que esté pensando en pagar un curso caro. Y si te trabas en alguna de las semanas o quieres una guía más profunda de uno de los repos en particular, déjalo en comentarios. Si el tema lo pide la mayoría, sale.

Guía de la comunidad

Se acabó pagar curso por algo que GitHub regala. Esta guía es parte de la bóveda de tododeia, una colección libre de recursos para quienes quieren construir con IA todos los días.

¿En qué etapa estás hoy?

Si nunca corriste un modelo, empieza por Ollama esta misma noche. Si ya usaste LangChain alguna vez, salta directo a la semana 3 con LlamaIndex y RAG. Si ya armaste un agente suelto, ve por CrewAI y arma tu primer equipo. La ruta no es lineal — es para que identifiques tu siguiente paso.