EngineeringSTRONGLightning Lesson
Local LLM jako sidekick — Llama + Ollama dla wrażliwych danych
Popyt na local LLM rośnie (compliance, dane wrażliwe, cost). Pokazuję workflow: Llama 4 na M3 Max jako routerek dla wrażliwych zapytań, Claude na cloud dla reszty. Trzy konkretne use case.
75STRONG
Reddit60 dni do wygaśnięcia10–15 min · demo style
Angle
Live setup od zera, pierwszy use case działa w 12 minut.
Deliverable
Setup script + 3 use case configs
Wymagane
Apple Silicon Mac lub Linux + GPU
Prep / freshness
5h·60d window