Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Словарь жаргона искусственного интеллекта (март 2026 года), рекомендуется сохранить
Автор|Golem(@web 3_golem)
Сейчас, если в криптомире не обращать внимания на ИИ, легко стать объектом насмешек (да, мой друг, подумай, почему ты вообще сюда зашел).
Ты вообще не понимаешь базовые концепции ИИ, каждое сокращение в каждом предложении вызывают у тебя вопрос «а что это значит?», а на офлайн-мероприятиях по ИИ ты в полном недоумении от всех этих терминов и при этом пытаешься притвориться, что не сбился с курса?
Хотя в кратчайшие сроки полностью войти в индустрию ИИ нереально, знать основные часто встречающиеся слова и термины всё равно полезно. К счастью, эта статья специально для тебя ↓ искренне советую внимательно прочитать и сохранить.
Базовая лексика (12)
LLM (Большая языковая модель)
Основная идея LLM — это глубокая обучающая модель, обученная на огромных объемах данных, умеющая хорошо понимать и генерировать язык. Она умеет работать с текстом, а сейчас всё больше — с другими типами контента.
Противоположность ей — SLM (Маленькая языковая модель) — обычно подчеркивает меньшие затраты, более легкую развертку и удобство локализации.
AI Agent (ИИ-агент)
Под AI Agent понимается не просто «модель, умеющая общаться», а система, способная понять цель, вызывать инструменты, выполнять задачи поэтапно, при необходимости — планировать и проверять свои действия. Google определяет агента как программное обеспечение, способное на основе мультимодальных входных данных делать выводы и выполнять действия за пользователя.
Multimodal (Мультимодальный)
Это модели ИИ, которые не ограничиваются только чтением текста, а могут одновременно обрабатывать текст, изображения, аудио, видео и другие формы входных и выходных данных. Google четко определяет мультимодальность как способность обрабатывать и генерировать разные типы контента.
Prompt (Подсказка)
Команда, которую пользователь вводит модели — это базовый способ взаимодействия человек-машина.
Generative AI (Генеративный ИИ / AIGC)
Подчеркивает, что ИИ «создает» контент, а не просто классифицирует или предсказывает. Генеративные модели могут по подсказке создавать текст, код, изображения, мемы, видео и другие материалы.
Token (Токен)
Это одна из самых похожих на «единицу газа» концепций в ИИ-сообществе. Модель не воспринимает содержание по «словам», а по токенам — это влияет на оплату, длину контекста, скорость ответа и обычно сильно связано с количеством токенов.
Context Window (Окно контекста / Длина контекста)
Это количество токенов, которое модель может одновременно «увидеть» и использовать за один раз. Также называется «объем памяти», который модель может учитывать или «запомнить» за один проход.
Memory (Память)
Обеспечивает сохранение предпочтений пользователя, контекста задачи и истории взаимодействий для модели или агента.
Training (Обучение)
Процесс, в ходе которого модель учится параметрам на основе данных.
Inference (Вывод / Прогноз)
Процесс, когда после обучения модель принимает входные данные и генерирует ответ. В индустрии часто говорят «обучение дорого, вывод еще дороже», потому что большинство затрат при коммерческом использовании приходится именно на inference. Разделение обучения и вывода — основа при обсуждении стоимости развертывания у ведущих компаний.
Tool Use / Tool Calling (Использование инструментов / Вызов инструментов)
Это означает, что модель не только выводит текст, а может вызывать поиск, выполнение кода, работу с базами данных, внешними API и другими инструментами — это одна из ключевых возможностей агента.
API (Интерфейс)
Инфраструктура, которая позволяет продуктам, приложениям и агентам взаимодействовать с сторонними сервисами.
Продвинутые термины (18)
transformer (Трансформер)
Архитектура модели, которая позволяет лучше понимать контекст и связи между словами. Это основа большинства современных больших языковых моделей, позволяющая одновременно учитывать все слова в тексте и их взаимосвязи.
Attention (Механизм внимания)
Ключевой механизм трансформера, который позволяет модели автоматически определять, на какие слова в предложении стоит обращать особое внимание при чтении.
Agentic / Agent Workflow (Интеллектуальный агент / Агентный рабочий процесс)
Недавно популярное выражение, означающее систему, которая не просто отвечает на вопросы, а самостоятельно разбирает задачи, принимает решения и вызывает внешние возможности. Многие считают это признаком перехода от чатботов к полноценным исполняемым системам.
Subagents (Подагенты)
Один агент может делегировать выполнение подзадач нескольким специализированным подагентам.
Skills (Навыки / Модули повторного использования)
С ростом популярности OpenClaw этот термин стал очень распространен. Это модули или операции, которые можно установить, комбинировать и повторно использовать в агенте, но при этом есть риск злоупотребления инструментами и утечки данных.
Hallucination (Галлюцинация)
Когда модель «всерьез» придумывает несуществующие факты или паттерны, что приводит к ошибочным или абсурдным ответам. Это проявление чрезмерной уверенности модели в своих ошибочных выводах.
Latency (Задержка)
Время, которое проходит от получения запроса до выдачи результата. Один из самых распространенных технических терминов, часто встречается при внедрении и коммерциализации.
Guardrails (Ограничения / Оградительные рамки)
Механизмы, ограничивающие действия модели или агента, определяющие, что можно или нельзя делать, когда и в каком контексте.
Vibe Coding (Кодирование атмосферы)
Очень популярный термин, означающий, что пользователь формулирует требования через диалог, а ИИ пишет код — при этом пользователь не обязательно должен знать, как писать код.
Parameters (Параметры)
Числовой масштаб модели, хранящий ее способности и знания. Обычно используют выражения «сто миллиардов параметров», «тысяча миллиардов параметров» — это часто используют для впечатляющего вида.
Reasoning Model (Модель с усиленным логическим выводом)
Модель, которая лучше справляется с многошаговым рассуждением, планированием, проверкой и выполнением сложных задач.
MCP (Протокол контекста модели)
Недавний популярный термин, обозначающий универсальный интерфейс между моделью и внешними инструментами или источниками данных.
Fine-tuning / Tuning (Тонкая настройка / Дообучение)
Дополнительное обучение базовой модели для адаптации под конкретные задачи, стили или области. В Google используют оба термина как взаимозаменяемые.
Distillation (Дистилляция)
Процесс сжатия возможностей большой модели в меньшую, чтобы «учитель» мог передать знания «ученику».
RAG (Retrieval-Augmented Generation, Генерация с поисковой поддержкой)
Практически стандартная схема для корпоративных ИИ. Microsoft определяет её как «поиск + LLM», использующую внешние данные для обоснования ответов, решая проблему устаревших данных обучения и незнания приватных баз знаний. Цель — строить ответы на основе реальных документов и приватных данных, а не только на памяти модели.
Grounding (Фактическое основание)
Часто встречается с RAG, означает, что ответы модели строятся на внешних источниках — документах, базах данных, веб-страницах — а не только на параметрах. В документации Microsoft подчеркивают важность grounding как ключевой ценности.
Embedding (Векторное представление / Семантический вектор)
Кодирование текста, изображений, аудио в высокоразмерные числовые векторы для вычисления семантической схожести.
Benchmark (Бенчмарк / Тестовая метрика)
Стандартизированный способ оценки возможностей модели, часто используемый для сравнения и демонстрации своих достижений.
Рекомендуемое чтение
11 ключевых вопросов о Lobster: простое и понятное разбор принципов OpenClaw