Машинное прослушивание (Machine listening) – это класс прикладного искусственного интеллекта, используемый для восприятия звука, понятного машинам.
Машинный интеллект (Machine intelligence) — это раздел компьютерных наук, занимающийся воспроизведением или имитацией человеческого интеллекта, самосознания, знаний, мышления в компьютерных программах. Это также обобщающий термин для различных типов алгоритмов обучения, включая машинное обучение и глубокое обучение.
Машинный перевод (Machine Translation) – это раздел компьютерной лингвистики, с использованием программного обеспечения для перевода текста или речи с одного языка на другой. [49]
Машинный разум (Machine intelligence) – это общий термин, охватывающий машинное обучение, глубокое обучение и классические алгоритмы обучения.
Машины опорных векторов или сети опорных векторов (Support-vector machines, Support-vector networks) – это контролируемые модели обучения с соответствующими алгоритмами обучения, которые анализируют данные для классификации и регрессионного анализа. Разработаны в AT&T Bell Laboratories Владимиром Вапником с коллегами в 1992 году. Машины опорных векторов являются одним из самых надежных методов прогнозирования, основанным на статистическом обучении или теории теории Вапника – Червоненкиса, предложенной Вапником (1982, 1995) и Червоненкисом (1974). Учитывая набор обучающих примеров, каждый из которых помечен как принадлежащий к одной из двух категорий, алгоритм обучения машины опорных векторов строит модель, которая относит новые примеры к той или иной категории, превращая ее в невероятностный двоичный линейный классификатор (хотя методы такие как масштабирование Платта, существуют для использования машин опорных векторов в вероятностной классификации). Машины опорных векторов сопоставляют обучающие примеры с точками в пространстве, чтобы максимизировать ширину разрыва между двумя категориями. Затем новые примеры сопоставляются с тем же пространством, и их принадлежность к категории определяется в зависимости от того, на какую сторону разрыва они попадают. В дополнение к выполнению линейной классификации SVM могут эффективно выполнять нелинейную классификацию, используя так называемый трюк ядра, неявно отображая свои входные данные в многомерные пространства признаков. Когда данные не размечены, обучение с учителем невозможно, и требуется подход к обучению без учителя, который пытается найти естественную кластеризацию данных в группы, а затем сопоставляет новые данные с этими сформированными группами. Алгоритм кластеризации опорных векторов, созданный Хавой Зигельманн и Владимиром Вапником, применяет статистику опорных векторов, разработанную в алгоритме машин опорных векторов, для категоризации неразмеченных данных.
Международный фонетический алфавит (МФА) ((PA (International Phonetic Alphabet)) – это система фонетической записи, основанная на латинском алфавите, разработанная Международной фонетической ассоциацией в качестве стандартизированного представления звуков разговорной речи.
Мероприятия по информатизации (Informatization activities) – это предусмотренные мероприятия программ цифровой трансформации государственных органов, направленные на создание, развитие, эксплуатацию или использование информационно-коммуникационных технологий, а также на вывод из эксплуатации информационных систем и компонентов информационно-телекоммуникационной инфраструктуры.
Мероприятия программы цифровой трансформации, осуществляемые государственным органом (Measures of the digital transformation program carried out by a state body) – это объединенная единой целью совокупность действий государственного органа, в том числе мероприятий по информатизации, направленных на выполнение задач по оптимизации административных процессов предоставления государственных услуг и (или) исполнения государственных функций, созданию, развитию, вводу в эксплуатацию, эксплуатации или выводу из эксплуатации информационных систем или компонентов информационно-коммуникационных технологий, нормативно-правовому обеспечению указанных процессов или иных задач, решаемых в рамках цифровой трансформации.
Метаданные (Metadata) – это термин, который относится к структурированным данным. Метаданные – это старая концепция (например, карточные каталоги и указатели), но метаданные часто необходимы для того, чтобы цифровой контент был полезным и значимым. Метаданные могут собирать общую или конкретную информацию о цифровом контенте, которая может определять административные, технические или структурные характеристики цифрового контента. «Метаданные сохранения» – это термин для более широкого набора метаданных, которые документируют жизненный цикл цифрового контента от создания до обработки, хранения, сохранения и использования с течением времени. Сохранение метаданных требуется на совокупном уровне (например, на уровне коллекции и исследования) и на уровне элемента (например, на уровне файла и переменной). Например, все действия по сохранению, применяемые к цифровому контенту с течением времени, должны фиксироваться в метаданных сохранения. Словарь данных «Стратегии внедрения метаданных сохранения» (PREMIS) – это разработка сообщества цифрового сохранения, которая движется к тому, чтобы стать стандартом. Существуют дополнительные специфичные для формата (например, словарь данных неподвижных изображений NISO) и другие стандарты, определяющие дополнительные метаданные для сохранения. ICPSR подготавливает запись метаданных для каждой коллекции данных, и мы представляем доступную для поиска базу данных записей метаданных на нашем общедоступном веб-сайте. ICPSR определил набор элементов метаданных на уровне файлов для сохранения. Инициатива ICPSR по улучшению процессов включает идентификацию метаданных на каждом этапе конвейера.
Мета-обучение (Meta-learning) – является одним из наиболее активных направлений исследований в области глубокого обучения, подмножеством машинного обучения, которое обнаруживает или улучшает алгоритм обучения. Система мета-обучения также может быть направлена на обучение модели быстрому освоению новой задачи на основе небольшого объема данных или опыта, полученного в предыдущих задачах. В контексте систем ИИ, метаобучение можно определить, как способность приобретать универсальность знаний. Путь к универсальности знаний предполагает от агентов ИИ «Учиться учиться». Основные типы метаобучающихся моделей: Мета-обучение несколько выстрелов; Оптимизатор мета-обучения; Метрическое мета-обучение; Рекуррентная модель мета-обучения [50].
Метаэвристика (Metaheuristic) – это процедура и эвристика более высокого уровня, предназначенная для поиска, генерации или эвристики, которая может обеспечить достаточно хорошее решение задачи оптимизации, особенно при неполной или несовершенной информации, или ограниченной вычислительной мощности. Метаэвристика отбирает подмножество решений, которое в другом случае слишком велико, чтобы его можно было полностью перечислить или исследовать каким-либо иным образом.
Метка или разметка (Label) – это разметка данных перед тем, как их использовать в системах машинного обучения. Эти метки могут быть в виде слов или цифр. Чтобы сделать данные понятными или в удобочитаемой форме, обучающие данные часто помечаются метками – словами.
Метод k-средних (K-means) – это наиболее популярный метод кластеризации. Был изобретён в 1950-х годах математиком Гуго Штейнгаузом и почти одновременно Стюартом Ллойдом. Кластеризация K-средних один из самых простых и популярных алгоритмов машинного обучения без учителя. Как правило, неконтролируемые алгоритмы делают выводы из наборов данных, используя только входные векторы, не обращаясь к известным или помеченным результатам.
Метод Монте-Карло (Monte Carlo Methods) – это метод многократного имитационного моделирования вероятностей, представляет собой математический метод, с помощью которого можно оценить возможные результаты неопределенного события. Метод Монте-Карло был изобретен Джоном фон Нейманом и Станиславом Уламом во время Второй мировой войны с целью улучшения процесса принятия решений в условиях неопределенности. Название методу дал известный своими казино город в Монако, поскольку в основе данного подхода к моделированию лежит принцип генерации случайных чисел, применяемый в рулетке.
Метод обратного распространения ошибки (Error backpropagation) – это метод вычисления градиента, который используется при обновлении весов многослойного перцептрона. Впервые метод был описан в 1974 г. А. И. Галушкиным. Метод включает в себя большое количество итерационных циклов с обучающими данными.
Метод ядра (Kernel method). В машинном обучении – этот метод представляет собой класс алгоритмов для анализа шаблонов, наиболее известным из которых является машина опорных векторов (SVM). Общая задача анализа шаблонов состоит в том, чтобы найти и изучить общие типы отношений (например, кластеры, ранжирование, главные компоненты, корреляции, классификации) в наборах данных.
Метод COBWEB (COBWEB) – это классический метод инкрементальной концептуальной кластеризации, который был изобретен профессором Дугласом Фишером в 1987 году. В отличие от традиционной кластеризации, которая обнаруживает группы схожих объектов на основе меры сходства между ними, концептуальная кластеризация определяет кластеры как группы объектов, относящейся к одному классу или концепту – определённому набору пар «атрибут-значение». Алгоритм COBWEB создаёт иерархическую кластеризацию в виде дерева классификации: каждый узел этого дерева ссылается на концепт и содержит вероятностное описание этого концепта.
Методология разработки и операции (DevOps development & operations) – это набор методик, инструментов и философия культуры, которые позволяют автоматизировать и интегрировать между собой процессы команд разработки ПО и ИТ-команд. Особое внимание в DevOps уделяется расширению возможностей команд, их взаимодействию и сотрудничеству, а также автоматизации технологий. Под термином DevOps также понимают особый подход к организации команд разработки. Его суть в том, что разработчики, тестировщики и администраторы работают в едином потоке – не отвечают каждые за свой этап, а вместе работают над выходом продукта и стараются автоматизировать задачи своих отделов, чтобы код переходил между этапами без задержек. В DevOps ответственность за результат распределяется между всей командой [51,52].
Методы эвристического поиска (Heuristic search techniques) – это методы, которые сужают поиск оптимальных решений проблемы за счет исключения неверных вариантов
Методы эвристического поиска (Heuristic search techniques) – это методика, которая сужает поиск оптимальных решений проблемы, исключая неверные варианты. [53]
Метрика (Metric) – это функция в задачах машинного обучения для оценки качества моделей и сравнения различных алгоритмов машинного обучения. [54]
Метрика справедливости (Fairness metric) – это математическое определение «справедливости», которое поддается измерению. Многие показатели справедливости являются взаимоисключающими.
Метрики API (Application Programming Interface или интерфейс программирования приложений) (tf. metrics) TensorFlow – это функция для оценки моделей. Например, tf.metrics.accuracy определяет, как часто прогнозы модели соответствуют меткам.
Механизм внимания (Attention mechanism) – это одно из ключевых нововведений в области нейронного машинного перевода. Внимание позволило моделям нейронного машинного перевода превзойти классические системы машинного перевода, основанные на переводе фраз. Основным узким местом в sequence-to-sequence обучении является то, что все содержимое исходной последовательности требуется сжать в вектор фиксированного размера. Механизм внимания облегчает эту задачу, так как позволяет декодеру оглядываться на скрытые состояния исходной последовательности, которые затем в виде средневзвешенного значения предоставляются в качестве дополнительных входных данных в декодер.
Механизм логического вывода (Inference engine) – это составная часть системы, которая применяет логические правила к базе знаний, чтобы вывести новую информацию. Первые механизмы вывода были компонентами экспертных систем. Типичная экспертная система состоит из базы знаний и механизма вывода. В базе знаний хранятся факты об окружающем мире. Механизм вывода применяет логические правила к базе знаний и выводит новые знания. [55]
Мехатроника (Mechatronics) – это наука, которая существует на стыке механики, электроники, машиностроения, вычислительной техники и электронного управления. Это одна из наиболее динамично развивающихся областей техники и науки. Слово «мехатроника» был введен в техническую терминологию японской компанией Yaskawa Elektric Corporation в 1969 году (компания, основанная в 1915 г.) и с 1971 г. охраняется как торговое наименование.
Микроданные (Microdata) – это файлы, которые содержат информацию об отдельных лицах, а не агрегированные данные. «Сводные файлы» Бюро переписи населения США содержат совокупные данные и состоят из общего числа лиц с различными указанными характеристиками в определенной географической области. Это, в некотором смысле, таблицы итогов. Однако файлы Бюро PUMS (выборка микроданных для общественного пользования) содержат данные из исходного инструмента обследования переписи, при этом определенная информация удалена для защиты анонимности респондента.
Минимаксные потери (Minimax loss) – это функция потерь в машинном обучении для порождающих состязательных сетей, основанная на перекрестной энтропии между распределением сгенерированных данных и реальными данными. Минимакс является алгоритмом принятия решений в области искусственного интеллекта, теории принятия решений, теориях игр, статистике и философии для минимизации возможных потерь. [56]
Минимизация структурных рисков (Structural risk minimization, SRM) – это индуктивный принцип использования в машинном обучении. Обычно в машинном обучении обобщенная модель должна быть выбрана из конечного набора данных, что приводит к проблеме переобучения – модель становится слишком строго адаптированной к особенностям обучающего набора и плохо обобщается для новых данных. Принцип SRM решает эту проблему, уравновешивая сложность модели с ее успехом в подборе обучающих данных. Этот принцип был впервые изложен в статье 1974 года Владимира Вапника и Алексея Червоненкиса.
Минимизация эмпирического риска (МЭР) (Empirical risk minimization) – это принцип статистической теории обучения, который определяет семейство обучающихся алгоритмов и который задаёт теоретические границы результативности.
Мини-пакет (Mini-batch) – это разбиение большого объема данных для обучения на пакеты, каждый из которых называется мини-пакетом, для дальнейшей пакетной обработки. Размер мини-пакета обычно составляет от 10 до 1000 единиц. Гораздо эффективнее вычислять потери по мини-пакету, чем по полным данным обучения.
Мини-пакетный градиентный спуск (Mini-batch stochastic gradient descent) – это метод оптимизации, используемый для вычисления параметров модели (коэффициентов и смещения) для таких алгоритмов, как линейная регрессия, логистическая регрессия, нейронные сети и т. д. Мини-пакетный градиентный спуск – оптимальное, сбалансированное решение между надежностью стохастического градиентного спуска и эффективностью пакетного градиентного спуска. Это наиболее распространенная реализация градиентного спуска, используемая в области глубокого обучения.
Многозадачное обучение (Multitask learning) – это общий подход, при котором модели обучаются выполнению различных задач на одних и тех же параметрах. В нейронных сетях этого можно легко добиться, связав веса разных слоев. Идея многозадачного обучения была впервые предложена Ричем Каруаной в 1993 году и применялась для прогнозирования пневмонии, а также для создания системы следования дороге на беспилотных устройствах (Каруана, 1998). Фактически при многозадачном обучении модель стимулируют к созданию внутри себя такого представления данных, которые позволяет выполнить сразу много задач. Это особенно полезно для обучения общим низкоуровневым представлениям, на базе которых потом происходит «концентрация внимания» модели или в условиях ограниченного количества обучающих данных. Многозадачное обучение нейросетей для обработки естественного языка было впервые применено в 2008 году Коллобером и Уэстоном (Collobert & Weston, 2008) [57].
О проекте
О подписке