BigChatHub

Глоссарий AI

Словарь из 52 терминов по AI и машинному обучению

52 терминов

A2A (Agent-to-Agent)

Агенты

Протокол прямой коммуникации между AI-агентами. Позволяет агентам делегировать задачи, обмениваться результатами и совместно решать сложные проблемы.

Связанные:multi-agentmcpagent

AI ROI

Бизнес

Возврат инвестиций от внедрения AI. Включает прямую экономию (автоматизация), ускорение процессов, новые возможности. Типичный ROI автоматизации: 200-400%.

Связанные:autonomous-businessautomationfine-tuning

AI-агент

Агенты

Система, где LLM автономно планирует и выполняет многошаговые задачи: вызывает инструменты, использует память, принимает решения. Claude Code, AutoGPT — примеры агентов.

Связанные:tool-usemcpmulti-agent

Chain-of-Thought (CoT)

Применение

Техника промптинга: просим модель 'думать вслух', объясняя шаги рассуждения перед ответом. Значительно улучшает качество на сложных задачах.

Связанные:promptreasoningfew-shot

ChatGPT

Продукты

Флагманский AI-ассистент OpenAI на базе GPT-4o. Самый популярный AI-продукт в мире с более 100 млн еженедельных пользователей.

Связанные:gptopenaillm

Claude

Продукты

AI-ассистент от Anthropic. Лидирует в следовании инструкциям, длинном контексте (200k), безопасности и анализе документов. Линейка: Haiku, Sonnet, Opus.

Связанные:anthropicconstitutional-aillm

Constitutional AI

Безопасность

Метод Anthropic для безопасного обучения AI: модель оценивает свои ответы по набору принципов ('конституции') и итеративно улучшает их.

Связанные:alignmentrlhfclaude

Cursor

Продукты

AI-IDE (редактор кода) с нативной интеграцией LLM. Лидирующий инструмент для vibe coding и AI-assisted разработки. Основан на VS Code.

Связанные:vibe-codinggithub-copilotagent

Data Flywheel

Бизнес

Эффект маховика данных: больше пользователей → больше данных → лучше модель → больше пользователей. Мощное конкурентное преимущество AI-продуктов.

Связанные:fine-tuningsynthetic-datallm

DPO

Обучение

Direct Preference Optimization — более стабильная альтернатива RLHF. Обучает модель напрямую на данных предпочтений без отдельной модели вознаграждения.

Связанные:rlhffine-tuningalignment

Few-shot обучение

Применение

Обучение модели выполнять задачу через несколько примеров в промпте (1-10 примеров). Не требует дообучения — модель обобщает паттерн из примеров.

Связанные:zero-shotpromptin-context-learning

Gemini

Продукты

Мультимодальная LLM от Google DeepMind. Линейка: Flash (быстрый), Pro (баланс), Ultra (мощный). Глубокая интеграция с Google Workspace.

Связанные:googlemultimodalllm

Jailbreak

Безопасность

Техники обхода защитных ограничений AI-модели с помощью специальных промптов. Серьёзная угроза безопасности AI-продуктов.

Связанные:alignmentred-teamingprompt-injection

KV-кэш

Архитектура

Оптимизация инференса: кэширование промежуточных вычислений (Key-Value) для уже обработанных токенов. Значительно ускоряет генерацию и снижает стоимость.

Связанные:inferencecontext-windowlatency

LLM

Основы

Large Language Model — большая языковая модель, нейросеть обученная на огромных объёмах текста. Основа ChatGPT, Claude, Gemini и других AI-ассистентов.

Связанные:transformertokenfoundation-model

LoRA

Архитектура

Low-Rank Adaptation — эффективный метод дообучения LLM. Замораживает большинство весов и добавляет небольшие обучаемые матрицы. Дёшево и быстро, работает на потребительских GPU.

Связанные:fine-tuningqlorallm

MCP (Model Context Protocol)

Агенты

Открытый протокол от Anthropic для подключения AI-моделей к внешним источникам данных и инструментам. Стандартизирует интеграцию агентов с сервисами.

Связанные:tool-useagentapi

MoE (Mixture of Experts)

Архитектура

Архитектура, где модель активирует только подмножество 'экспертных' слоёв для каждого токена. Позволяет масштабировать параметры без пропорционального роста вычислений. Используется в GPT-4, Mixtral.

Связанные:transformerllminference

Prompt Engineering

Применение

Дисциплина написания эффективных инструкций для LLM. Включает техники: chain-of-thought, few-shot, ролевые инструкции, структурированный вывод.

Связанные:promptchain-of-thoughtfew-shot

Prompt Injection

Безопасность

Атака на AI-агентов: вредоносные инструкции, встроенные в обрабатываемый контент (сайты, документы), перехватывают управление агентом.

Связанные:agentjailbreaktool-use

RAG

Применение

Retrieval-Augmented Generation — дополнение LLM базой знаний: сначала ищем релевантные документы в векторной БД, затем передаём их в контекст модели. Снижает галлюцинации.

Связанные:vector-databaseembeddingcontext-window

RLHF

Обучение

Reinforcement Learning from Human Feedback — обучение с подкреплением на основе человеческих оценок. Ключевой метод выравнивания моделей (ChatGPT, Claude). Люди оценивают пары ответов, модель обучается предпочтениям.

Связанные:alignmentconstitutional-aifine-tuning

Tool Use (Function Calling)

Агенты

Способность LLM вызывать внешние функции и API: поиск, калькулятор, браузер, БД. Ключевая возможность для создания AI-агентов.

Связанные:agentmcpworkflow

Top-P (Nucleus Sampling)

Интерфейсы

Параметр семплирования: модель выбирает из набора токенов, чья суммарная вероятность равна P. Top-P=0.9 означает выбор из 'ядра' вероятности 90%.

Связанные:temperaturesamplinginference

Vibe Coding

Бизнес

Подход к разработке, при котором AI генерирует большую часть кода по описанию на естественном языке. Демократизирует программирование для non-разработчиков.

Связанные:cursoragentllm

Zero-shot

Применение

Выполнение задачи без примеров в промпте — только инструкция. Мощные модели справляются с большинством задач в zero-shot режиме.

Связанные:few-shotpromptllm

Агентный рабочий процесс

Агенты

Автоматизированная цепочка задач, выполняемая AI-агентом: планирование, вызов инструментов, проверка результатов, итерация. Основа автономного бизнеса.

Связанные:agenttool-usemulti-agent

Векторная БД

Архитектура

База данных, оптимизированная для хранения и поиска по эмбеддингам. Ключевой компонент RAG-систем. Примеры: Pinecone, Weaviate, Chroma, pgvector.

Связанные:embeddingragsemantic-search

Выравнивание (Alignment)

Безопасность

Задача создания AI-систем, действия которых соответствуют намерениям и ценностям людей. Одна из ключевых проблем безопасности AI.

Связанные:rlhfconstitutional-aihallucination

Галлюцинация

Основы

Генерация AI уверенных, но ложных утверждений. Модель 'выдумывает' факты, источники или данные, которых не существует. Главный риск LLM.

Связанные:ragalignmentgrounding

Граундинг (Grounding)

Применение

Привязка ответов модели к реальным данным и источникам. RAG — основной метод граундинга. Снижает галлюцинации и повышает фактическую точность.

Связанные:raghallucinationvector-database

Дообучение (Fine-tuning)

Обучение

Адаптация предобученной модели на специфическом наборе данных. Позволяет специализировать LLM для конкретных задач или домена. Методы: SFT, RLHF, DPO, LoRA.

Связанные:rlhflorafoundation-model

Инференс

Основы

Процесс применения обученной модели для генерации ответов. Противоположность обучению. Большую часть затрат AI-продуктов составляет именно инференс.

Связанные:latencythroughputtoken

Квантизация

Архитектура

Сжатие модели путём уменьшения точности весов (например, с float32 до int4). Снижает требования к памяти и ускоряет инференс с минимальной потерей качества.

Связанные:inferencefine-tuningllm

Контекстное окно

Основы

Максимальный объём текста (в токенах), который модель может обработать за один раз. Claude обрабатывает до 200k токенов, GPT-4o — до 128k.

Связанные:tokenllmrag

Латентность

Интерфейсы

Время до получения первого токена (TTFT — Time to First Token). Ключевая метрика UX для AI-продуктов. Зависит от провайдера, размера модели, нагрузки.

Связанные:throughputinferencestreaming

Механизм внимания

Архитектура

Ключевой компонент трансформеров: позволяет модели фокусироваться на наиболее релевантных частях входного текста при генерации каждого следующего токена.

Связанные:transformerself-attentioncontext-window

Мультиагентная система

Агенты

Архитектура, где несколько AI-агентов взаимодействуют для решения сложных задач: специализированные роли, параллельная работа, оркестрация.

Связанные:agenta2aworkflow

Мультимодальность

Основы

Способность AI-модели работать с несколькими типами данных: текст, изображения, аудио, видео. GPT-4o, Claude 3 и Gemini — мультимодальные модели.

Связанные:llmvisionembedding

Предобучение

Обучение

Первый этап создания LLM: обучение на огромном корпусе текста (триллионы токенов) с задачей предсказания следующего токена. Самый дорогой этап.

Связанные:fine-tuningfoundation-modelllm

Промпт

Основы

Запрос или инструкция, которую пользователь передаёт AI-модели. Качество промпта напрямую влияет на качество ответа — отсюда дисциплина Prompt Engineering.

Связанные:system-promptfew-shotchain-of-thought

Пропускная способность

Интерфейсы

Количество токенов в секунду, которое модель генерирует. Важна для batch-обработки и высоконагруженных систем.

Связанные:latencyinferencetoken

Семантический поиск

Данные

Поиск по смыслу, а не ключевым словам. Используется в RAG-системах: запрос преобразуется в эмбеддинг и сравнивается с эмбеддингами документов.

Связанные:embeddingvector-databaserag

Синтетические данные

Обучение

Данные, сгенерированные AI-моделями для обучения других моделей. Позволяет масштабировать обучающие данные без дорогостоящей разметки людьми.

Связанные:fine-tuningpretrainingllm

Системный промпт

Применение

Инструкции для модели, задающие её роль, ограничения и контекст. Передаются до сообщений пользователя и не видны обычному пользователю продукта.

Связанные:promptfew-shotagent

Стриминг

Интерфейсы

Режим вывода, при котором токены отправляются клиенту по мере генерации (как при печати). Улучшает воспринимаемую задержку для пользователей.

Связанные:inferencelatencyapi

Температура

Интерфейсы

Параметр генерации (0-2): контролирует случайность вывода. Температура 0 = детерминированный/точный ответ, 1+ = творческий/разнообразный.

Связанные:top-psamplinginference

Токен

Основы

Минимальная единица текста, которую обрабатывает LLM. Примерно 1 токен = 3/4 слова на английском, ~2 символа на русском. Стоимость API считается в токенах.

Связанные:llmcontext-windowembedding

Трансформер

Архитектура

Архитектура нейросети, предложенная Google в 2017 году (статья 'Attention is All You Need'). Основа всех современных LLM. Использует механизм внимания для обработки текста.

Связанные:attentionllmembedding

Фундаментальная модель

Основы

Большая предобученная модель, которую можно адаптировать для множества задач. GPT-4o, Claude Opus, Gemini Ultra — примеры фундаментальных моделей.

Связанные:llmfine-tuningrlhf

Эмбеддинг

Архитектура

Числовое представление текста (вектор) в многомерном пространстве. Семантически похожие тексты имеют близкие эмбеддинги. Основа векторных БД и RAG.

Связанные:vector-databaseragsemantic-search

Эмерджентное поведение

Основы

Неожиданные способности, появляющиеся у больших моделей, которых не было у меньших: рассуждение, аналогии, метапознание. Трудно предсказать заранее.

Связанные:foundation-modelalignmentllm