📚

AI Engineering Hub

Repository pratico con 90+ progetti su LLM, RAG e agenti per imparare facendo

Inizia Subito

🎯 Cos'è AI Engineering Hub?

È una raccolta di progetti production-ready con tutorial e demo reali su LLMs, RAG e Agenti. I progetti sono organizzati per livello (Beginner/Intermediate/Advanced) e coprono casi d'uso reali come chat UI locali, agenti con memoria, RAG multimodale e molto altro.

🟢

Beginner

OCR, chat UI locali, RAG di base

🟡

Intermediate

Agenti, workflow, RAG avanzato

🟣

Advanced

Fine-tuning, sistemi in produzione

📚 Come usarla: passo-passo

1 Clona il repository
git clone https://github.com/patchy631/ai-engineering-hub.git cd ai-engineering-hub
2 Scegli un progetto per livello

Apri la cartella del progetto (es. beginner/local-chatgpt-gemma) e leggi il README.md con i prerequisiti.

3 Installa le dipendenze

Segui il file requirements.txt oppure usa pip multi-linea:

pip install ` streamlit ` llama-index ` qdrant-client ` crewai ` transformers ` openai
4 Avvia la demo

Molti progetti espongono una UI web o API locali.

streamlit run app.py
5 Configura le chiavi (se richieste)

Imposta le variabili d'ambiente per provider (es. OPENAI_API_KEY, GROQ_API_KEY) seguendo il README del progetto.

💡 Esempi pratici

Local ChatGPT con Gemma 3

Avvia una chat UI locale con streaming delle risposte.

pip install ` transformers ` streamlit ` sentencepiece python - <<'PY' from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_id = "google/gemma-2-2b-it" tok = AutoTokenizer.from_pretrained(model_id) mdl = AutoModelForCausalLM.from_pretrained(model_id) prompt = "Ciao! Spiega cos'è un RAG in modo semplice." inputs = tok(prompt, return_tensors="pt") with torch.no_grad(): out = mdl.generate(**inputs, max_length=200, temperature=0.7) print(tok.decode(out[0], skip_special_tokens=True)) PY

Simple RAG Workflow

Indicizzazione di documenti e risposta a domande.

pip install ` llama-index ` pypdf ` sentence-transformers python - <<'PY' from llama_index.core import VectorStoreIndex, SimpleDirectoryReader docs = SimpleDirectoryReader("./docs").load_data() index = VectorStoreIndex.from_documents(docs) query_engine = index.as_query_engine() print(query_engine.query("Quali sono i vantaggi di un RAG?")) PY

Agentic workflow con CrewAI

Un semplice flusso con più agenti coordinati.

pip install crewai python - <<'PY' from crewai import Agent, Task, Crew researcher = Agent(name="Ricercatore", role="cerca fonti", goal="Raccogliere insight rilevanti") writer = Agent(name="Autore", role="redige contenuti", goal="Scrivere un riassunto chiaro") task1 = Task(description="Analizza 3 fonti sul tema RAG") task2 = Task(description="Scrivi un riassunto di 300 parole") crew = Crew(agents=[researcher, writer], tasks=[task1, task2]) result = crew.run() print(result) PY

🚀 Risorse

Esplora i progetti, leggi i README e avvia le demo.