Словарь жаргона искусственного интеллекта (март 2026 года), рекомендуется сохранить

robot
Генерация тезисов в процессе

Автор|Golem(@web 3_golem)

Сейчас, если в криптомире не обращать внимания на ИИ, легко стать объектом насмешек (да, мой друг, подумай, почему ты вообще сюда зашел).

Ты вообще не понимаешь базовые концепции ИИ, каждое сокращение в каждом предложении вызывают у тебя вопрос «а что это значит?», а на офлайн-мероприятиях по ИИ ты в полном недоумении от всех этих терминов и при этом пытаешься притвориться, что не сбился с курса?

Хотя в кратчайшие сроки полностью войти в индустрию ИИ нереально, знать основные часто встречающиеся слова и термины всё равно полезно. К счастью, эта статья специально для тебя ↓ искренне советую внимательно прочитать и сохранить.

Базовая лексика (12)

LLM (Большая языковая модель)

Основная идея LLM — это глубокая обучающая модель, обученная на огромных объемах данных, умеющая хорошо понимать и генерировать язык. Она умеет работать с текстом, а сейчас всё больше — с другими типами контента.

Противоположность ей — SLM (Маленькая языковая модель) — обычно подчеркивает меньшие затраты, более легкую развертку и удобство локализации.

AI Agent (ИИ-агент)

Под AI Agent понимается не просто «модель, умеющая общаться», а система, способная понять цель, вызывать инструменты, выполнять задачи поэтапно, при необходимости — планировать и проверять свои действия. Google определяет агента как программное обеспечение, способное на основе мультимодальных входных данных делать выводы и выполнять действия за пользователя.

Multimodal (Мультимодальный)

Это модели ИИ, которые не ограничиваются только чтением текста, а могут одновременно обрабатывать текст, изображения, аудио, видео и другие формы входных и выходных данных. Google четко определяет мультимодальность как способность обрабатывать и генерировать разные типы контента.

Prompt (Подсказка)

Команда, которую пользователь вводит модели — это базовый способ взаимодействия человек-машина.

Generative AI (Генеративный ИИ / AIGC)

Подчеркивает, что ИИ «создает» контент, а не просто классифицирует или предсказывает. Генеративные модели могут по подсказке создавать текст, код, изображения, мемы, видео и другие материалы.

Token (Токен)

Это одна из самых похожих на «единицу газа» концепций в ИИ-сообществе. Модель не воспринимает содержание по «словам», а по токенам — это влияет на оплату, длину контекста, скорость ответа и обычно сильно связано с количеством токенов.

Context Window (Окно контекста / Длина контекста)

Это количество токенов, которое модель может одновременно «увидеть» и использовать за один раз. Также называется «объем памяти», который модель может учитывать или «запомнить» за один проход.

Memory (Память)

Обеспечивает сохранение предпочтений пользователя, контекста задачи и истории взаимодействий для модели или агента.

Training (Обучение)

Процесс, в ходе которого модель учится параметрам на основе данных.

Inference (Вывод / Прогноз)

Процесс, когда после обучения модель принимает входные данные и генерирует ответ. В индустрии часто говорят «обучение дорого, вывод еще дороже», потому что большинство затрат при коммерческом использовании приходится именно на inference. Разделение обучения и вывода — основа при обсуждении стоимости развертывания у ведущих компаний.

Tool Use / Tool Calling (Использование инструментов / Вызов инструментов)

Это означает, что модель не только выводит текст, а может вызывать поиск, выполнение кода, работу с базами данных, внешними API и другими инструментами — это одна из ключевых возможностей агента.

API (Интерфейс)

Инфраструктура, которая позволяет продуктам, приложениям и агентам взаимодействовать с сторонними сервисами.

Продвинутые термины (18)

transformer (Трансформер)

Архитектура модели, которая позволяет лучше понимать контекст и связи между словами. Это основа большинства современных больших языковых моделей, позволяющая одновременно учитывать все слова в тексте и их взаимосвязи.

Attention (Механизм внимания)

Ключевой механизм трансформера, который позволяет модели автоматически определять, на какие слова в предложении стоит обращать особое внимание при чтении.

Agentic / Agent Workflow (Интеллектуальный агент / Агентный рабочий процесс)

Недавно популярное выражение, означающее систему, которая не просто отвечает на вопросы, а самостоятельно разбирает задачи, принимает решения и вызывает внешние возможности. Многие считают это признаком перехода от чатботов к полноценным исполняемым системам.

Subagents (Подагенты)

Один агент может делегировать выполнение подзадач нескольким специализированным подагентам.

Skills (Навыки / Модули повторного использования)

С ростом популярности OpenClaw этот термин стал очень распространен. Это модули или операции, которые можно установить, комбинировать и повторно использовать в агенте, но при этом есть риск злоупотребления инструментами и утечки данных.

Hallucination (Галлюцинация)

Когда модель «всерьез» придумывает несуществующие факты или паттерны, что приводит к ошибочным или абсурдным ответам. Это проявление чрезмерной уверенности модели в своих ошибочных выводах.

Latency (Задержка)

Время, которое проходит от получения запроса до выдачи результата. Один из самых распространенных технических терминов, часто встречается при внедрении и коммерциализации.

Guardrails (Ограничения / Оградительные рамки)

Механизмы, ограничивающие действия модели или агента, определяющие, что можно или нельзя делать, когда и в каком контексте.

Vibe Coding (Кодирование атмосферы)

Очень популярный термин, означающий, что пользователь формулирует требования через диалог, а ИИ пишет код — при этом пользователь не обязательно должен знать, как писать код.

Parameters (Параметры)

Числовой масштаб модели, хранящий ее способности и знания. Обычно используют выражения «сто миллиардов параметров», «тысяча миллиардов параметров» — это часто используют для впечатляющего вида.

Reasoning Model (Модель с усиленным логическим выводом)

Модель, которая лучше справляется с многошаговым рассуждением, планированием, проверкой и выполнением сложных задач.

MCP (Протокол контекста модели)

Недавний популярный термин, обозначающий универсальный интерфейс между моделью и внешними инструментами или источниками данных.

Fine-tuning / Tuning (Тонкая настройка / Дообучение)

Дополнительное обучение базовой модели для адаптации под конкретные задачи, стили или области. В Google используют оба термина как взаимозаменяемые.

Distillation (Дистилляция)

Процесс сжатия возможностей большой модели в меньшую, чтобы «учитель» мог передать знания «ученику».

RAG (Retrieval-Augmented Generation, Генерация с поисковой поддержкой)

Практически стандартная схема для корпоративных ИИ. Microsoft определяет её как «поиск + LLM», использующую внешние данные для обоснования ответов, решая проблему устаревших данных обучения и незнания приватных баз знаний. Цель — строить ответы на основе реальных документов и приватных данных, а не только на памяти модели.

Grounding (Фактическое основание)

Часто встречается с RAG, означает, что ответы модели строятся на внешних источниках — документах, базах данных, веб-страницах — а не только на параметрах. В документации Microsoft подчеркивают важность grounding как ключевой ценности.

Embedding (Векторное представление / Семантический вектор)

Кодирование текста, изображений, аудио в высокоразмерные числовые векторы для вычисления семантической схожести.

Benchmark (Бенчмарк / Тестовая метрика)

Стандартизированный способ оценки возможностей модели, часто используемый для сравнения и демонстрации своих достижений.

Рекомендуемое чтение

11 ключевых вопросов о Lobster: простое и понятное разбор принципов OpenClaw

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить