Глоссарий AI
Словарь из 52 терминов по AI и машинному обучению
52 терминов
A2A (Agent-to-Agent)
АгентыПротокол прямой коммуникации между AI-агентами. Позволяет агентам делегировать задачи, обмениваться результатами и совместно решать сложные проблемы.
AI ROI
БизнесВозврат инвестиций от внедрения AI. Включает прямую экономию (автоматизация), ускорение процессов, новые возможности. Типичный ROI автоматизации: 200-400%.
AI-агент
АгентыСистема, где LLM автономно планирует и выполняет многошаговые задачи: вызывает инструменты, использует память, принимает решения. Claude Code, AutoGPT — примеры агентов.
Chain-of-Thought (CoT)
ПрименениеТехника промптинга: просим модель 'думать вслух', объясняя шаги рассуждения перед ответом. Значительно улучшает качество на сложных задачах.
ChatGPT
ПродуктыФлагманский AI-ассистент OpenAI на базе GPT-4o. Самый популярный AI-продукт в мире с более 100 млн еженедельных пользователей.
Claude
ПродуктыAI-ассистент от Anthropic. Лидирует в следовании инструкциям, длинном контексте (200k), безопасности и анализе документов. Линейка: Haiku, Sonnet, Opus.
Constitutional AI
БезопасностьМетод Anthropic для безопасного обучения AI: модель оценивает свои ответы по набору принципов ('конституции') и итеративно улучшает их.
Cursor
ПродуктыAI-IDE (редактор кода) с нативной интеграцией LLM. Лидирующий инструмент для vibe coding и AI-assisted разработки. Основан на VS Code.
Data Flywheel
БизнесЭффект маховика данных: больше пользователей → больше данных → лучше модель → больше пользователей. Мощное конкурентное преимущество AI-продуктов.
DPO
ОбучениеDirect Preference Optimization — более стабильная альтернатива RLHF. Обучает модель напрямую на данных предпочтений без отдельной модели вознаграждения.
Few-shot обучение
ПрименениеОбучение модели выполнять задачу через несколько примеров в промпте (1-10 примеров). Не требует дообучения — модель обобщает паттерн из примеров.
Gemini
ПродуктыМультимодальная LLM от Google DeepMind. Линейка: Flash (быстрый), Pro (баланс), Ultra (мощный). Глубокая интеграция с Google Workspace.
Jailbreak
БезопасностьТехники обхода защитных ограничений AI-модели с помощью специальных промптов. Серьёзная угроза безопасности AI-продуктов.
KV-кэш
АрхитектураОптимизация инференса: кэширование промежуточных вычислений (Key-Value) для уже обработанных токенов. Значительно ускоряет генерацию и снижает стоимость.
LLM
ОсновыLarge Language Model — большая языковая модель, нейросеть обученная на огромных объёмах текста. Основа ChatGPT, Claude, Gemini и других AI-ассистентов.
LoRA
АрхитектураLow-Rank Adaptation — эффективный метод дообучения LLM. Замораживает большинство весов и добавляет небольшие обучаемые матрицы. Дёшево и быстро, работает на потребительских GPU.
MCP (Model Context Protocol)
АгентыОткрытый протокол от Anthropic для подключения AI-моделей к внешним источникам данных и инструментам. Стандартизирует интеграцию агентов с сервисами.
MoE (Mixture of Experts)
АрхитектураАрхитектура, где модель активирует только подмножество 'экспертных' слоёв для каждого токена. Позволяет масштабировать параметры без пропорционального роста вычислений. Используется в GPT-4, Mixtral.
Prompt Engineering
ПрименениеДисциплина написания эффективных инструкций для LLM. Включает техники: chain-of-thought, few-shot, ролевые инструкции, структурированный вывод.
Prompt Injection
БезопасностьАтака на AI-агентов: вредоносные инструкции, встроенные в обрабатываемый контент (сайты, документы), перехватывают управление агентом.
RAG
ПрименениеRetrieval-Augmented Generation — дополнение LLM базой знаний: сначала ищем релевантные документы в векторной БД, затем передаём их в контекст модели. Снижает галлюцинации.
RLHF
ОбучениеReinforcement Learning from Human Feedback — обучение с подкреплением на основе человеческих оценок. Ключевой метод выравнивания моделей (ChatGPT, Claude). Люди оценивают пары ответов, модель обучается предпочтениям.
Tool Use (Function Calling)
АгентыСпособность LLM вызывать внешние функции и API: поиск, калькулятор, браузер, БД. Ключевая возможность для создания AI-агентов.
Top-P (Nucleus Sampling)
ИнтерфейсыПараметр семплирования: модель выбирает из набора токенов, чья суммарная вероятность равна P. Top-P=0.9 означает выбор из 'ядра' вероятности 90%.
Vibe Coding
БизнесПодход к разработке, при котором AI генерирует большую часть кода по описанию на естественном языке. Демократизирует программирование для non-разработчиков.
Zero-shot
ПрименениеВыполнение задачи без примеров в промпте — только инструкция. Мощные модели справляются с большинством задач в zero-shot режиме.
Агентный рабочий процесс
АгентыАвтоматизированная цепочка задач, выполняемая AI-агентом: планирование, вызов инструментов, проверка результатов, итерация. Основа автономного бизнеса.
Векторная БД
АрхитектураБаза данных, оптимизированная для хранения и поиска по эмбеддингам. Ключевой компонент RAG-систем. Примеры: Pinecone, Weaviate, Chroma, pgvector.
Выравнивание (Alignment)
БезопасностьЗадача создания AI-систем, действия которых соответствуют намерениям и ценностям людей. Одна из ключевых проблем безопасности AI.
Галлюцинация
ОсновыГенерация AI уверенных, но ложных утверждений. Модель 'выдумывает' факты, источники или данные, которых не существует. Главный риск LLM.
Граундинг (Grounding)
ПрименениеПривязка ответов модели к реальным данным и источникам. RAG — основной метод граундинга. Снижает галлюцинации и повышает фактическую точность.
Дообучение (Fine-tuning)
ОбучениеАдаптация предобученной модели на специфическом наборе данных. Позволяет специализировать LLM для конкретных задач или домена. Методы: SFT, RLHF, DPO, LoRA.
Инференс
ОсновыПроцесс применения обученной модели для генерации ответов. Противоположность обучению. Большую часть затрат AI-продуктов составляет именно инференс.
Квантизация
АрхитектураСжатие модели путём уменьшения точности весов (например, с float32 до int4). Снижает требования к памяти и ускоряет инференс с минимальной потерей качества.
Контекстное окно
ОсновыМаксимальный объём текста (в токенах), который модель может обработать за один раз. Claude обрабатывает до 200k токенов, GPT-4o — до 128k.
Латентность
ИнтерфейсыВремя до получения первого токена (TTFT — Time to First Token). Ключевая метрика UX для AI-продуктов. Зависит от провайдера, размера модели, нагрузки.
Механизм внимания
АрхитектураКлючевой компонент трансформеров: позволяет модели фокусироваться на наиболее релевантных частях входного текста при генерации каждого следующего токена.
Мультиагентная система
АгентыАрхитектура, где несколько AI-агентов взаимодействуют для решения сложных задач: специализированные роли, параллельная работа, оркестрация.
Мультимодальность
ОсновыСпособность AI-модели работать с несколькими типами данных: текст, изображения, аудио, видео. GPT-4o, Claude 3 и Gemini — мультимодальные модели.
Предобучение
ОбучениеПервый этап создания LLM: обучение на огромном корпусе текста (триллионы токенов) с задачей предсказания следующего токена. Самый дорогой этап.
Промпт
ОсновыЗапрос или инструкция, которую пользователь передаёт AI-модели. Качество промпта напрямую влияет на качество ответа — отсюда дисциплина Prompt Engineering.
Пропускная способность
ИнтерфейсыКоличество токенов в секунду, которое модель генерирует. Важна для batch-обработки и высоконагруженных систем.
Семантический поиск
ДанныеПоиск по смыслу, а не ключевым словам. Используется в RAG-системах: запрос преобразуется в эмбеддинг и сравнивается с эмбеддингами документов.
Синтетические данные
ОбучениеДанные, сгенерированные AI-моделями для обучения других моделей. Позволяет масштабировать обучающие данные без дорогостоящей разметки людьми.
Системный промпт
ПрименениеИнструкции для модели, задающие её роль, ограничения и контекст. Передаются до сообщений пользователя и не видны обычному пользователю продукта.
Стриминг
ИнтерфейсыРежим вывода, при котором токены отправляются клиенту по мере генерации (как при печати). Улучшает воспринимаемую задержку для пользователей.
Температура
ИнтерфейсыПараметр генерации (0-2): контролирует случайность вывода. Температура 0 = детерминированный/точный ответ, 1+ = творческий/разнообразный.
Токен
ОсновыМинимальная единица текста, которую обрабатывает LLM. Примерно 1 токен = 3/4 слова на английском, ~2 символа на русском. Стоимость API считается в токенах.
Трансформер
АрхитектураАрхитектура нейросети, предложенная Google в 2017 году (статья 'Attention is All You Need'). Основа всех современных LLM. Использует механизм внимания для обработки текста.
Фундаментальная модель
ОсновыБольшая предобученная модель, которую можно адаптировать для множества задач. GPT-4o, Claude Opus, Gemini Ultra — примеры фундаментальных моделей.
Эмбеддинг
АрхитектураЧисловое представление текста (вектор) в многомерном пространстве. Семантически похожие тексты имеют близкие эмбеддинги. Основа векторных БД и RAG.
Эмерджентное поведение
ОсновыНеожиданные способности, появляющиеся у больших моделей, которых не было у меньших: рассуждение, аналогии, метапознание. Трудно предсказать заранее.