Недавно я наткнулся на интересное видео, где два разработчика делятся опытом использования ИИ в работе. Они показывают, как автоматизируют задачи, как выстраивают взаимодействие с LLM и какие инструменты у них реально работают.
За подробностями и примерами — лучше идти прямо в видео. Ниже я сделал короткий обзор того, что можно утащить в свой процесс.
Эта статья подготовлена на основе транскрибации ролика через мой сервис task.ai-aid.pro: транскрипт видео. Если не хочется пересматривать видео — откройте транскрипт и задайте вопросы к нему в вашем любимом LLM-чате.
Что обсуждают в видео
Claude Code — CLI-инструмент для работы с кодом (и не только) через LLM. По сути это ИИ-агент в терминале.
- CLAUDE.md позволяет зафиксировать правила проекта: код-стайл, типовые решения, структуру, формат коммитов — чтобы не повторять это в каждом промпте.
- Skills — markdown-файлы с инструкциями “как у вас принято”. Например: как писать QA notes, коммиты, changelog. С ними не нужно повторять одно и то же в промптах — и результат становится заметно стабильнее.
- Hooks — автоматические действия по завершении работы агента (запуск тестов, линта и других утилит проверки качества кода).
- MCP (Model Context Protocol) — позволяет подключать к модели внешние источники: описание задач из Jira, документацию, структуру БД, а также другие LLM как вспомогательных агентов.
- Агенты — можно запускать несколько агентов параллельно под разные роли: генерация, тесты, ревью, документация.
Отдельно обсуждают китайские модели, в том числе: GLM 4.6 / GLM 4.7 и то, как подключать их в Claude Code через Cerebras - это даёт скорость порядка ~1000 токенов/сек.
Также вскользь упоминают и другие инструменты: GitHub Copilot, Junie (ИИ-агент от JetBrains), Cursor, Warp.
Где можно обжечься
В видео ребята предостерегают:
- ИИ легко делает вид, что “всё проверил”, хотя тесты/линт могли не запускаться или быть отключены.
- Без структуры (правил проекта, skills, hooks) результат будет плавать от раза к разу.
- Расходы на токены могут незаметно разогнаться, особенно если запускать агентов параллельно.
Всё это — про системный подход. ИИ начинает реально помогать, когда встроен в процесс: есть правила проекта, автоматические проверки и понятная “финализация”. Без этого качество удерживать тяжело.
Главная мысль: LLM — не волшебная кнопка, а инструмент, «которого раньше не было, и все не знают, какой стороной его держать». Как они говорят, с ним можно как деградировать, так и прогрессировать — всё решает подход.
ИИ может быть и резиновой уточкой, и ассистентом, и партнёром по архитектуре. Главное — не “вайб-кодить”, не нажимать “approve” с закрытыми глазами (и не сливать изменения без ревью), а разбирать: что и почему сделал ИИ. Это напрямую влияет на рост.
dmitry prikotov