
Вчера YouTube порекомендовал мне несколько лекций по искусственному интеллекту — они структурировали ключевые мысли и укрепили уверенность в выбранном направлении. Эти выступления показывают, что мы живём в эпоху фундаментальных изменений, движимых искусственным интеллектом и большими языковыми моделями (LLM).
LLM — это не просто очередной виток развития программных решений. Это фундаментальные модели, способные обобщать обширный человеческий опыт и решать широкий круг интеллектуальных задач. Лекции демонстрируют, как эти технологии становятся практичными и доступными: от локального запуска моделей до их применения в бизнесе и предпринимательстве.
Искусственный интеллект в эпоху больших языковых моделей | Сергей Марков
Лекция Сергея Маркова описывает развитие искусственного интеллекта (ИИ) с акцентом на современную эпоху больших языковых моделей (LLM). Революция глубокого обучения, особенно появление архитектуры "Трансформер", привела к возможности создания и эффективного обучения масштабных нейросетей. Эти LLM действуют как "фундаментальные модели", способные обобщать знания из огромных объемов данных и решать разнообразные задачи, опираясь на накопленный человечеством опыт. Автор проводит параллели между текущими изменениями и прошлыми информационными революциями (письменность, книгопечатание, интернет), предполагая радикальную перестройку информационного метаболизма общества. Обсуждаются также методы управления выдачей моделей, перспективы интерактивного ИИ и развитие российских разработок в этой области.
Тайм-коды:
- 00:00 - История и развитие ИИ
- 05:05 - ИИ как инструмент расширения возможностей
- 07:43 - История и развитие интерфейсов
- 09:33 - Новая и новейшая история ИИ
- 11:45 - Революция глубокого обучения
- 15:15 - Размер и скорость роста датасферы
- 17:04 - Революция трансформеров
- 18:05 - Что происходит прямо сейчас?
- 24:08 - Фундаментальные модели
- 26:35 - Революция в NLP
- 29:00 - История человечества и информация
- 32:48 - Будущее ИИ
- 35:27 - Настройка моделей
- 37:45 - Возможности моделей
- 39:00 - Мультимодальность и интеллектуальный взрыв
- 41:45 - Регионализации и развитие в РФ
- 45:17 - Про GigaChat
Из-за ограничения по времени часть выступления получилась сжатой. Более подробная версия по той же презентации доступна здесь: ИИ и машинное обучение. Итоги 2024 года (Центр АРХЭ)
Технические сложности, с которыми сталкиваются компании при внедрении LLM | Дмитрий Рыбалко
Лекция Дмитрия Рыбалко рассматривает технические и продуктовые сложности внедрения больших языковых моделей (LLM) в бизнес, выделяя такие барьеры как риски некорректной выдачи, вопросы безопасности данных и высокую стоимость развертывания. Компании находят применение LLM в более простых сценариях, включая поддержку операторов, HR-сервисы и использование моделей как классификаторов. Для улучшения качества и адаптации моделей применяются методы вроде промпт-инжиниринга, дообучения (в частности, PEFT-методы) и Retrieval Augmented Generation (RAG). RAG является важным подходом, позволяющим модели использовать актуальную внешнюю базу знаний для ответов, тем самым снижая вероятность галлюцинаций. Облачные платформы упрощают процесс внедрения, предлагая готовые модели и инструменты для развертывания и реализации RAG-систем. Подчеркивается, что безопасность данных обеспечивается разделением процессов обучения и инференса моделей в облаке.
Тайм-коды:
- 00:00 - Введение
- 02:11 - 2 трека внедрения LLM
- 05:20 - Примеры успешных кейсов
- 08:30 - Советы по внедрению
- 09:37 - Как выглядит проект по внедрению?
- 10:42 - Кастомизация и дообучение моделей
- 12:28 - Выбор подхода к внедрению
- 13:12 - Методы обучения моделей
- 15:53 - Методология RAG
- 17:32 - Подготовка базы знаний
- 18:42 - Повышение качества RAG
- 20:26 - Использование облачных серверов
- 25:59 - Вопросы и ответы
Генеративные модели на потребительском оборудовании | Александр Константинов
Лекция Александра Константинова посвящена запуску больших языковых моделей (LLM) на пользовательском оборудовании, сравнивая проприетарные и Open Source модели. Он подчеркивает, что открытые модели предлагают лучшую безопасность данных и контроль, но самые большие из них требуют очень дорогого оборудования. Для решения этой проблемы используются методы дистилляции (передача знаний меньшей модели) и особенно квантизации (снижение точности весов), которые резко сокращают требования к видеопамяти и позволяют запускать мощные модели на обычных видеокартах. Квантизация дает возможность запускать модели, требующие сотен гигабайт, на оборудовании с несколькими десятками гигабайт VRAM. Также важен подход RAG (Retrieval Augmented Generation), позволяющий моделям использовать внешние актуальные данные для повышения точности и уменьшения галлюцинаций.
Тайм-коды:
- 00:00 - Введение
- 01:53 - Проприетарные и Open Source LLM модели
- 03:17 - Как определить какая модель лучше?
- 05:29 - Llama 3.1
- 09:20 - Применение моделей в RPA
- 10:10 - Эксперименты с квантизацией
- 13:30 - Контекстное окно и ресурсы
- 14:10 - Сравнение моделей и тестирование
- 15:47 - Как запустить модель локально?
- 18:42 - Выводы
- 19:48 - Вопросы и ответы
Свой стартап на LLM — миф или реальность? | Александр Горный
Лекция Александра Горного посвящена возможностям создания стартапов на основе больших языковых моделей (LLM), рассматривая их как новую технологическую волну. Он предлагает сфокусироваться на стартапах третьего уровня, которые решают конкретные задачи пользователей или бизнеса, а не на разработке базовых моделей или инструментов. Автор рекомендует создавать B2B-решения, поскольку они позволяют лучше интегрироваться с данными и процессами клиента, снижая риск конкуренции с крупными провайдерами LLM, которые могут встроить B2C-функции в свои основные продукты. Успешный стартап на LLM должен быть тесно связан с уникальными данными клиента и решать важные, интегрированные задачи. Для старта необходимо изучить ИИ, основы стартап-культуры и, главное, начать создавать какой-либо продукт для получения практического опыта. Готовые LLM-технологии делают этот путь особенно доступным для начинающих.
Тайм-коды:
- 00:00 - Введение и настрой
- 00:58 - О спикере
- 02:28 - Определение стартапа
- 06:26 - Глобальный тренд автоматизации
- 10:20 - Пирамида стартапов
- 17:16 - B2C или B2B
- 22:11 - Критерии успешности на третьей линии
- 27:17 - С чего начать?
- 31:45 - Вопросы и ответы
Текстовая версия доклада на Habr: Свой стартап на LLM — миф или реальность
Как AI и автоматизация меняют бизнес? Что происходит с рынком и как адаптироваться?
Лекция Дмитрия Карпова посвящена влиянию ИИ и автоматизации на бизнес, отмечая переход от простой автоматизации по правилам (RPA) к более интеллектуальным решениям на основе ИИ. На рынке труда наблюдается снижение спроса на задачи, связанные с написанием текстов, переводами и рутинным обслуживанием клиентов. ИИ показывает высокую эффективность в аналитических и вспомогательных функциях, но сталкивается с трудностями в создании эмпатии и качественной прямой коммуникации с людьми. Внедрение ИИ успешно, когда он не заменяет эмпатийное общение с клиентом, а автоматизирует задачи, не требующие прямого взаимодействия. Это позволяет компаниям создавать более производительные и меньшие по размеру команды, меняя стратегию роста с найма людей на инвестиции в технологии.
Тайм-коды:
- 0:00 Тизер
- 0:33 Спикер о себе и своем опыте в AI и автоматизации
- 1:32 История Дмитрия: учеба, первый стартап, переход от науки к бизнесу
- 5:42 Развитие карьеры: запуск собственного RPA-вендора, участие в Y Combinator
- 9:03 AI и рынок труда: автоматизация процессов, влияние на найм и сокращения
- 13:04 Различия AI и RPA, ограничения автоматизации, проблема эмпатии в AI
- 19:14 Новый стартап WorkDone: AI-автоматизация без общения, кейс DirecTV
- 25:48 AI-агенты: их применение, перспективы автоматизации в бизнесе
- 36:48 Будущее AI, безопасность данных, инвестиции
Общий вывод
Эти лекции помогают лучше понять текущее положение дел в сфере ИИ и дают практическое представление о способах его применения — от технической реализации до бизнес-стратегий. Они ценны как для разработчиков, так и для тех, кто строит продукт или думает о своём месте в новой технологической реальности.