AgenticOps
Всем привет! Мы запускаем КЛУБ ПО ПРОЕКТИРОВАНИЮ И РАЗРАБОТКЕ AI-СИСТЕМ
⚡️⚡️⚡️
В рамках инициативы мы хотим не просто говорить о том, «как писать код с помощью AI» (хотя и об этом тоже), но и сфокусироваться на архитектуре: как организовывать, развивать и поддерживать полноценные AI-системы и агентские приложения.
────────────
ФОРМАТ
Сейчас в сети полно материалов о том, как создавать AI-системы. Есть целое море бесплатных курсов, но в нем сложно ориентироваться. Плюс тот же Claude Code может провести вас по всему процессу создания приложения, если просто общаться с ним.
Но нам, людям, часто не хватает живого общения и возможности посмотреть, как работают другие инженеры. Мы хотим делать то, что обычно называлось парным программированием или командным проектированием у доски.
Формат нашего клуба — это серия встреч, где мы обсуждаем теорию или новости, а затем пробуем подходы на практике и делимся результатами.
────────────
ЧТО БУДЕМ РАЗБИРАТЬ
Среди тем нашего клуба:
▪️Spec-Driven Development и BMAD.
▪️Исходный код и архитектура агентских систем (OpenClaw, утекшие исходники Claude Code).
▪️Проблемы безопасности и организация памяти (memory management).
▪️Подходы, которые идеальны для пет-проектов, но разваливаются в серьезном энтерпрайзе, и наоборот.
▪️Идеи вроде LLM Wiki и AutoResearch Андрея Карпатого.
▪️…И многое другое.
────────────
ВОЗМОЖНЫЙ ФОРМАТ ДЛЯ УЧАСТНИКОВ
Вы разрабатываете собственную систему на базе LLM (тему можете предложить свою или взять нашу). Как только ваш MVP готов, мы помогаем вам подготовиться, и вы презентуете решение участникам клуба. Это выступление на 30–60 минут с фокусом на использованные подходы, инструменты и решенные проблемы (а также забавные и не очень баги). В этом случае вы получаете сертификат RS School.
────────────
ИЩЕМ СПИКЕРОВ
Приглашаем всех, кто хочет поделиться своим реальным опытом разработки AI-систем.
────────────
ОРГАНИЗАЦИОННЫЕ МОМЕНТЫ
▪️НАГРУЗКА: Встречи 1 раз в неделю.
▪️ПЕРВАЯ ВСТРЕЧА: 29 апреля в 18:00 CEST. Это будет первый созвон в рамках нашей инициативы, но присоединиться к клубу можно в любое время!
Регистрация на встречу 29 апреля:
https://wearecommunity.io/events/ideal-agentic-dev-flow-1
Регистрация на встречу 6 мая:
https://wearecommunity.io/events/ideal-agentic-dev-flow-2
▪️ОБЩЕНИЕ: проходит в нашем Telegram-чате:
https://t.me/+VDL4vokIZBNmZjAy
Gemma 4 in 13 Minutes on your Laptop
https://www.youtube.com/watch?v=nu6Cm7g052U
https://github.com/marcel-dempers/docker-development-youtube-series/tree/master/ai/models/llama-cpp
https://huggingface.co/collections/ggml-org/gemma-4
Скачал: gemma-4-E4B-it-Q4_K_M.gguf
sudo apt update
sudo apt install nvidia-driver-595
sudo apt-get purge nvidia*
sudo apt-get autoremove
sudo apt update
sudo apt install nvidia-driver-535
sudo reboot
$ docker run -it \
-v /mnt/dsk1/models/:/models \
--gpus all \
-p 8080:8080 \
--entrypoint bash ghcr.io/ggml-org/llama.cpp:full-cuda
./llama-cli --help
./llama-server -m /models/gemma-4-E4B-it-Q4_K_M.gguf \
--port 8080 \
-ngl 99 \
--jinja \
-c 131072 \
--parallel 1 \
--temperature 1.0 \
--top-p 0.95 \
--top-k 64
Run AI Models Locally with llama.cpp
https://www.youtube.com/watch?v=ZR9S9zXm4ZU
https://github.com/marcel-dempers/docker-development-youtube-series/tree/master/ai/models/llama-cpp
https://github.com/ggml-org/llama.cpp/releases
$ wget https://github.com/ggml-org/llama.cpp/releases/download/b9006/llama-b9006-bin-ubuntu-x64.tar.gz
$ tar -xvzf llama-b9006-bin-ubuntu-x64.tar.gz
$ cd llama-b9006
$ chmod +x llama-cli
$ sudo wget -O /models/Llama-3.2-1B-Instruct-Q4_K_M.gguf https://huggingface.co/bartowski/Llama-3.2-1B-Instruct-GGUF/resolve/main/Llama-3.2-1B-Instruct-Q4_K_M.gguf
$ ls /models/
gemma-4-26B-A4B-it-Q4_K_M.gguf Llama-3.2-1B-Instruct-Q4_K_M.gguf
// Run from a local GGUF file
// Use -ngl 0 to disable GPU offload and run on CPU only
$ ./llama-cli -m /models/Llama-3.2-1B-Instruct-Q4_K_M.gguf -ngl 0 -p "Привет, как дела?"
OpenCode CLI: An AI Terminal Engineers MUST Have
https://www.youtube.com/watch?v=MQxqc14s2gs
https://opencode.ai/
$ curl -fsSL https://opencode.ai/install | bash
$ source ~/.bashrc
$ opencode
$ git clone https://github.com/marcel-dempers/docker-development-youtube-series/
$ opencode run "Simple yes or no only, is this Kubernetes manifset syntax valid @docker-development-youtube-series/kubernetes/pods/pod.yaml"
> build · big-pickle
→ Read docker-development-youtube-series/kubernetes/pods/pod.yaml
Yes
$ cd docker-development-youtube-series/
$ opencode
/init
Генерит AGENTS.md
MCP Server
$ sudo apt install -y nodejs npm
$ npm install -g mcp-server-kubernetes
$ opencode mcp add
┌ Add MCP server
│
◇ Location
│ Current project
│
◇ Enter MCP server name
│ kubernetes
│
◇ Select MCP server type
│ Local
│
◆ Enter command to run
│ npx -y mcp-server-kubernetes@latest█
│
◆ MCP server "kubernetes" added to /home/marley/tmp/docker-development-youtube-series/opencode.json
│
└ MCP server added successfully
$ opencode mcp list
$ opencode
/mcps