Какое решающее правило при разработке алгоритма распознавании образов следует реализовать при задании функций правдоподобия классов и априорных вероятностей гипотез
решающее правило в соответствии с критерием минимума среднего риска
решающее правило в соответствии с критерием максимума апостериорной вероятности
решающее правило на основе деревьев решений
решающее правило в соответствии с критерием максимума функции правдоподобия соответствии с критерием максимума функции правдоподобия
Композиционные алгоритмы на основе бустинга основаны на следующих принципе взаимодействия элементарных алгоритмов (экспертов)
эксперты учатся на ошибках друг друга
снижение зависимости «экспертов» – базовых классификаторов ансамбля друг от друга
итерационный процесс построения композиций классификаторов, в котором каждая следующая композиция учится исправлять ранее допущенные ошибки
общее решение принимается на основе агрегирования мнений всех экспертов
Как рассчитываются веса базовых алгоритмов на каждой итерации стандартного алгоритма AdaBoost
на основе пересчета старых весовых коэффициентов с использованием взвешенной ошибки классификации
на основе пересчета старых весовых коэффициентов с использованием весовых коэффициентов примеров из обучающей выборки
на основе расчета весовых коэффициентов примеров из обучающей выборки
на основе расчета весовых коэффициентов обучающих примеров с учетом допущенных на них ошибок
Назовите основной принцип алгоритма кросс-валидации
в цикле исключение одного или нескольких примеров из обучающей выборки и проведения контрольного тестирования алгоритма с накоплением результатов классификации
в цикле исключение одного или нескольких примеров из тестирующей выборки и проведения контрольного тестирования алгоритма с накоплением результатов классификации
исключение одного или нескольких примеров из обучающей выборки и проведения контрольного тестирования алгоритма с накоплением результатов классификации
использование режима out-оf-bag
Выберите общий сценарий решения задачи кластерного анализа и при неизвестном количестве классов
в цикле по неизвестному числу классов перебор всех возможных комбинаций кластеров с их объединением и разделением
реализация EM-алгоритма с перебором числа кластеров
выполнение кластеризаций c перебором числа кластеров и использование специальных критериев для определения числа кластеров
использование специальных критериев для определения числа кластеров
Что такое машинное обучение?
синоним понятия «искусственный интеллект»
совокупность методов построения алгоритмов, способных улучшать свое поведение в процессе накопления информации
формализация знаний экспертов и их перенос в компьютер в виде базы знаний (область экспертных систем)
выявление общих закономерностей по частным эмпирическим (экспериментальным) данным
Какой из алгоритмов не относится к классу композиционных?
алгоритмы на основе бэггинга
алгоритмы K-соседей, алгоритм Kmeans
алгоритм AdaBoost, случайный лес
алгоритмы на основе бустинга
Как изменяется внутриклассовая дисперсия при выполнении алгоритма K-средних?
значительно уменьшается после выполнения каждой итерации
по крайней мере, не увеличивается после выполнения каждой итерации
монотонно возрастает
стремится к нулю
Что является критерием останова при выполнении алгоритма K-средних?
после очередной итерации изменения центров кластеров меньше заданной величины
после очередной итерации изменения центров кластеров равны заданной величине
после выполнения заданного числа итераций изменения центров кластеров меньше заданной величины
после выполнения заданного числа итераций изменения центров кластеров больше заданной величины
Какой критерий из перечисленных Вы отнесете к критериям оценки числа классов в задачах кластерного анализа?
минимума условного риска
критерий силуэта
критерий минимума внутриклассового разброса
критерий минимума внутриклассовой дисперсии
Какой алгоритм используется при выборе эталонных образов при решении задачи классификации по мере близости?
алгоритм SVM
алгоритм Калинского-Харабаша
алгоритм К-соседей
алгоритм STOLP
Основное предположение при синтезе наивного байесовского классификатора соcтоит в следующем
признаки распознавания не коррелированны друг относительно друга
матрицы ковариаций признаков распознавания диагональны
признаки распознавания подчиняются распределению Бернулли
признаки распознавания статистически независимы
Где располагаются опорные векторы в алгоритме SVM?
вне границ разделяющей полосы
на границах разделяющей полосы
близко к границам разделяющей полосы
заступают за границы разделяющей полосы
Какое решающее правило при разработке алгоритма распознавании образов следует реализовать при задании только функций правдоподобия классов?
решающее правило в соответствии с критерием минимума условного риска
решающее правило в соответствии с критерием максимума правдоподобия
решающее правило на основе SVM
Соотношение для функции правдоподобия на основе гауссовской модели данных при разработке алгоритма распознавания предполагает задание
количество используемых признаков, условную матрицу ковариаций, условное математическое ожидание
количество используемых признаков, безусловную матрицу ковариаций, безусловное математическое ожидание
количество используемых признаков, условную матрицу ковариаций, условное математическое ожидание, вероятности бинарных значения признаков
количество используемых признаков, условную матрицу ковариаций, условное математическое ожидание, априорные вероятности гипотез
Какие алгоритмы используются при наличии неизвестных параметров функций правдоподобия?
на основе оценок с использованием окон Парзена
подстановочные алгоритмы
оптимальные алгоритмы по критерию максимального правдоподобия
оптимальные алгоритмы по критерию максимума апостериорной вероятности
Какие параметры используются при формировании оценок плотности по методу kсоседей?
обучающая выборка, рекомендуемое число соседей, выборочная матрица ковариаций
обучающая выборка, рекомендуемое число соседей, подбираемые константы
размер обучающей выборки, рекомендуемое число соседей, подбираемые константы
радиус расположения ближайших соседей, рекомендуемое число соседей, подбираемые константы
Какие данные используются при разработке алгоритмов распознавания по мере близости?
используемая метрика, один или несколько эталонных векторов для каждого класса
используемая метрика, эталонный вектор для каждого класса
используемая функция расстояния, несколько эталонных векторов для каждого класса
используемая функция расстояния, один или несколько эталонных векторов для каждого класса
Выберите типовой набор функций, которые могут использоваться в качестве ядер скалярного произведения при разработке алгоритмов обработки информации
радиально-базисная функция, полиномиальная функция, функция гиперболического тангенса
радиально-базисная функция, полиномиальная функция, показательная функция
радиально-базисная функция, оконная функция, функция гиперболического тангенса
треугольная функция, полиномиальная функция, функция гиперболического тангенса
Что такое бутстреп подвыборка при реализации алгоритма «случайный лес»?
формируется из обучающей выборки для каждого элемента ансамбля путем случайной выборки с возвращением из исходной обучающей выборки, объем подвыборки 63% от исходной
формируется из обучающей выборки для каждого элемента ансамбля путем случайной выборки с возвращением из исходной обучающей выборки, объем подвыборки тот же, что и в исходной
формируется из обучающей выборки для каждого элемента ансамбля путем случайной выборки без возвращения из исходной обучающей выборки, объем подвыборки меньше, чем в исходной
Метод деревьев решений предполагает использование следующих основных гиперпарметров
показатель загрязненности, критерии остановки расщепление деревьев, параметры усечения деревьев
показатель загрязненности, правило расщепление деревьев, параметры усечения деревьев
показатель загрязненности, критерии расщепление деревьев, правило усечения деревьев
показатель загрязненности, критерии остановки расщепление деревьев, параметры усечения деревьев, количество вершин
Какие инъекции случайности используется при построении алгоритма «случайный лес»?
случайная подвыборка и случайный набор признаков при формировании каждого дерева решений в ансамбле
случайная подвыборка и случайное ветвление при формировании каждого дерева решений в ансамбле
случайная подвыборка, случайный набор признаков, случайный размер дерева при формировании каждого дерева решений в ансамбле
случайное количество деревьев, случайный набор признаков, случайный размер дерева при формировании ансамбля
Какие алгоритмы используются при наличии неизвестных функций правдоподобия?
Как пересчитываются веса примеров из обучающей выборки на каждой итерации стандартного алгоритма AdaBoost?
на основе пересчета с использованием взвешенной ошибки классификации
на основе пересчета старых весовых коэффициентов с использованием весовых коэффициентов базовых классификаторов
после пересчета весов базовых алгоритмов с учетом допущенных на этих примерах ошибок
Выберите известные Вам алгоритмы, относящиеся к классу композиционных
Случайный лес, алгоритм SVM
Случайный лес, алгоритм SVM, алгоритм K-соседей
Случайный лес, алгоритм AdaBoost
Случайный лес, алгоритм K-соседей, алгоритм K-средних
Какие исходные данные используются при построении алгоритма по методу SVM в общем случае?
обучающая выборка, тип функции ядра, параметры функции ядра, регуляризирующая константа С
обучающая и тестирующая выборка, вектор признаков, параметры функции ядра, регуляризирующая константа С
обучающая выборка, длина вектора признаков, тип функции ядра, регуляризирующая константа С
длина вектора признаков, тип функции ядра, параметры функции ядра, регуляризирующая константа С
Имеется смешанная обучающая выборка двух классов, соcтоящая из N примеров. Какова должна быть максимальная размерность спрямляющего пространства?
N
Выберите правильное определение понятия kernel trick в задачах разработки алгоритмов обработки информации
использование ядра скалярного произведения для построения нелинейного спрямляющего преобразования
использование ядра скалярного произведения для построения линейного спрямляющего преобразования
использование ядра скалярного произведения для построения алгоритма по методу опорных векторов
использование ядра скалярного произведения для перехода в спрямляющее пространство без непосредственного построения нелинейного преобразования
В каких случаях возникает эффект недообучения в алгоритмах машинного обучения?
при существенной несбалансированности обучающих выборок
когда имеется большая обучающая выборка при малом числе настраиваемых параметров алгоритма
когда объем обучающих данных больше, чем нужно для настройки требуемого числа параметров алгоритма
когда объем обучающих данных в десять раз меньше числа параметров алгоритма преобразования
Как определить понятие «слабый классификатор» через вероятность ошибки (eps малая величина)?
Pош > 0.5
Pош = 0.5 + eps
Pош = eps
Pош = 0.5 - eps
Выберите пару алгоритмов обработки информации, в которой один однозначно больше подвержен эффекту переобучения
Дерево решений или случайный лес
Adaboost или случайный лес
Нейронная сеть или случайный лес
SVM или случайный леc
Почему при неизвестном числе классов в алгоритмах кластерного анализа нельзя пользоваться критерием минимума внутриклассового разброса?
критерий монотонно возрастает при увеличении числа классов
критерий не изменяется при изменении числа классов
критерий монотонно убывает при увеличении числа классов
критерий не зависим от числа классов
Какой результат при неизвестном числе классов в алгоритмах кластерного анализа дает использования критерием минимума внутриклассового разброса?
показывает наличие только одного кластера
дают большую ошибку при определении числа кластеров
показывает, что число кластеров равно числу элементов обучающей выборки
Как принимается решение при распознавании образа по методу k-соседей?
в пользу класса, имеющего максимальное значение функции правдоподобия k-соседей
в пользу класса, имеющего максимальное значение апостериорной вероятности k-соседей
в пользу класса, для которого имеется максимальное число соседей
в пользу класса, для которого имеется максимальное число элементов обучающей выборки
В чем главный принцип работы алгоритмов кластеризации при неизвестном количестве кластеров?
перебор всех возможных комбинаций кластеров с их объединением и разделением
Какое решающее правило при разработке алгоритма классификации образов следует реализовать при задании функций правдоподобия классов, штрафных функций, априорных вероятностей гипотез?
решающее правило в соответствии с критерием максимума функции правдоподобия
наивный байесовский классификатор
Наиболее полный набор данных для синтеза оптимальных алгоритмов классификации из перечисленных исходных включает:
число классов, ядерные оценки плотности распределения классов
число классов, априорные вероятностей гипотез, функции правдоподобия классов, штрафные функции
число классов, априорные вероятностей гипотез, функции правдоподобия классов с подстановкой неизвестных параметров
Перечислите полный набор свойств оценок неизвестных параметров распределения:
состоятельность, эффективность, устойчивость, робастность
состоятельность, вычисляемость, несмещенность, робастность
состоятельность, эффективность, несмещенность, робастность
состоятельность, эффективность, несмещенность, сходимость
Какие параметры используются при формировании многомерных окон Парзена в оценках распределений?
размер обучающей выборки, вид оконной функции, параметр оконной функции, выборочная матрица ковариаций, подбираемые константы
обучающая выборка, параметр оконной функции, подбираемые константы
размер обучающей выборки, оконная функция, выборочное математическое ожидание, подбираемые константы
радиус расположения ближайших соседей, параметр оконной функции, выборочная матрица ковариаций, подбираемые константы
В чем состоит принципиальное отличие детерминистского подхода к разработке алгоритмов обработки информации от статистического?
не используются вероятностные модели данных и показатели эффективности в виде вероятностей ошибок и моментов оцениваемых параметров
не используются вероятностные модели данных, алгоритмы основаны только на использовании обучающих выборок
используются детерминистские модели данных и обучающие выборки
в качестве показателей эффективности используются относительная частота ошибок и среднеквадратичное отклонение оценок параметров от истинного значения
Выберите наиболее корректную формулировку теоремы Мерсера
спрямляющее пространство должны быть наделено скалярным произведением
функция K(x,z) является ядром скалярного произведения тогда и только тогда, когда она симметрична K(x,z) = K(z,x) и неотрицательно определена
ядром скалярного произведения называется функцию, представимую в виде скалярного произведения в некотором пространстве после выполнения нелинейного преобразования K(x,z) = ф(x)Tф(z)
функция K(x,z) является ядром скалярного произведения тогда и только тогда, когда она симметрична K(x,z) = K(z,x) и положительно определена
Применение метода опорных векторов для нелинейно разделимых классов предполагает задание следующих исходных данных:
неразмеченная обучающая выборка, функция ядра скалярного произведения
неразмеченная обучающая выборка, управляющий параметр C
размеченная обучающая выборка, функция ядра скалярного произведения, управляющий параметр C
размеченная обучающая выборка, управляющий параметр C, функция ядра скалярного произведения
размеченная обучающая выборка, управляющий параметр C, нелинейное спрямляющее преобразование
Как определяется дерево решений?
неориентированный связный граф без циклов (без обратных связей) с единственной корневой вершиной
ориентированный связный граф без циклов (без обратных связей) с единственной корневой вершиной
ориентированный (заданы направления соединения вершин ребрами графа) связный граф c циклами и обратными связями и единственной корневой вершиной
ориентированный связный граф без циклов (без обратных связей) с двумя корневыми вершинами
Композиционные алгоритмы основаны на следующем общем принципе работы:
общее решение принимается на основе голосования всех экспертов
Выберите наиболее корректную формулировку теоремы Ковера
линейное преобразование сложной задачи классификации образов в пространство более высокой размерности повышает вероятность нелинейной разделимости образов
использование преобразования на основе радиальной базисной функции повышает вероятность линейной разделимости образов
нелинейное преобразование сложной задачи классификации образов в пространство более высокой размерности повышает вероятность линейной разделимости образов
нелинейное преобразование сложной задачи классификации образов в пространство более высокой размерности повышает вероятность разделимости образов
Как изменяется количество базовых алгоритмов на каждой итерации стандартного алгоритма AdaBoost?
не изменяется
изменяется случайным образом
может увеличиваться
увеличивается на десять единиц
Какие алгоритмы относятся к алгоритмам кластерного анализа?
K-соседей, иерархической группировки, случайный лес
K-соседей, иерархической группировки, EM-алгоритм
К-средних, иерархической группировки, EM-алгоритм, AdaBoost
К-средних, иерархической группировки, EM-алгоритм
Какие исходные данные входят в постановку задачи кластерного анализа в рамках детерминистского подхода?
размеченная обучающая смешанная выборка, число классов (кластеров), мера близости образов различных классов
неразмеченная обучающая смешанная выборка, число классов (кластеров), мера близости образов различных классов, способ сравнении классов
неразмеченная обучающая смешанная выборка, число классов (кластеров), мера близости образов различных классов
Какие исходные данные входят в постановку задачи кластерного анализа в рамках на основе иерархической группировки?
неразмеченная обучающая смешанная выборка, число классов (кластеров), мера близости различных кластеровКакие исходные данные входят в постановку задачи кластерного анализа в рамках на основе иерархической группировки?
неразмеченная обучающая смешанная выборка, число классов (кластеров), мера близости различных кластеров
В чем главный принцип работы алгоритма иерархической агломеративной кластеризации?
выполнение нескольких итераций с расщеплением наиболее крупного кластера на каждом шаге
выполнение нескольких итераций с объединением двух наиболее «близких» кластеров на каждой
выполнение нескольких итераций с объединением всех наиболее «близких» кластеров на каждой итерации
выполнение нескольких итераций с расщеплением всех больших кластеров на каждом шаге
Какой алгоритм не относится к алгоритмам кластерного анализа?
EM-алгоритм
алгоритм K-соседей
алгоритм K-means
Постановка задачи регрессии в рамках детерминистского подхода предполагает:
задание неразмеченной обучающей выборки, использование критерия наименьших квадратов, задание типа регрессии
задание размеченной обучающей выборки, использование критерия максимума апостериорной вероятности, решение системы линейных уравнений
задание размеченной обучающей выборки, использование критерия наименьших квадратов, выполнение нелинейного преобразования входных переменных, решение системы линейных уравнений
задание размеченной обучающей выборки, использование критерия наименьших квадратов, задание типа регрессии
Решение задачи нелинейной регрессии предполагает
задание размеченной обучающей выборки, использование критерия наименьших квадратов, выполнение нелинейного преобразования входных переменных, решение СЛАУ для нахождения коэффициентов линейной регрессии новых переменных
задание неразмеченной обучающей выборки, использование критерия наименьших квадратов, выполнение нелинейного преобразования входных переменных, решение СЛАУ для нахождения коэффициентов линейной регрессии новых переменных
использование критерия наименьших квадратов, выполнение нелинейного преобразования входных переменных, решение СЛАУ для нахождения коэффициентов линейной регрессии новых переменных
задание размеченной обучающей выборки, использование критерия максимума апостериорной вероятности, выполнение нелинейного преобразования входных переменных, решение СЛАУ для нахождения коэффициентов линейной регрессии новых переменных
Выберите правильный перечень известных Вам способы оценки вероятностей ошибок для статистических алгоритмов классификации
прямой расчет вероятностей ошибок на основе выражений для функций правдоподобия классов; использование условных распределений разделяющих функций, использование верхних границ вероятностей ошибок, проведение компьютерного имитационного эксперимента
прямой расчет вероятностей ошибок на основе выражений для функций правдоподобия классов; использование условных распределений разделяющих функций, использование критерия максимума апостериорной вероятности, проведение компьютерного имитационного эксперимента
прямой расчет вероятностей ошибок на основе выражений для функций правдоподобия классов; использование штрафных функций, использование верхних границ вероятностей ошибок, проведение компьютерного имитационного эксперимента
прямой расчет вероятностей ошибок на основе выражений для функций правдоподобия классов; использование условных распределений признаков классов, использование верхних границ вероятностей ошибок, проведение компьютерного имитационного эксперимента преобразования входных переменных, решение СЛАУ для нахождения коэффициентов линейной регрессии новых переменных
Метод опорных векторов для линейно разделимых классов предполагает задание следующих исходных данных
размеченная обучающая выборка, функция ядра скалярного произведения
размеченная обучающая выборка, управляющий параметр C
Какие штрафные функции (функции потерь) используется при синтезе алгоритма классификации на основе критерия максимума апостериорной вероятности?
симметричные штрафные функций с фиксированной нулевой платой за правильное решение и не одинаковой платой за ошибки
симметричные штрафные функций с нулевой платой за правильное решение и одинаковой платой за ошибки
несимметричные штрафные функций с нулевой платой за правильное решение и одинаковой платой за ошибки
симметричные штрафные функций с фиксированной ненулевой платой за правильное решение и одинаковой платой за ошибки
Как решается проблема линейной не разделимости данных в задачах разработки алгоритмов обработки информации?
В каких случаях возникает эффект переобучения в алгоритмах машинного обучения
когда объем обучающих данных меньше, чем нужно для настройки требуемого числа параметров алгоритма
когда объем обучающих данных больше, чем число настраиваемых параметров алгоритма
когда объем обучающих данных в десять раз больше числа параметров
Композиционные алгоритмы на основе бэггинга основаны на следующих принципе взаимодействия элементарных алгоритмов (экспертов)
обеспечение высокого быстродействия при принятии решений экспертами
Как называется алгоритм классификации, основанный на использовании простой функции потерь (4 слова)?
алгоритм максимума апостериорной вероятности
Назовите англоязычный термин, используемый при проверке эффективности алгоритма случайный лес с использование только обучающей выборки (строчные буквы, слова через дефис)
out-of-bag
Какой прием используется для обучения и тестовой проверки алгоритма обработки информации на основе ограниченной обучающей выборки? (с использованием дефиса)
кросс-валидация
Назовите русский перевод англоязычного термина, используемого для обозначения ядер скалярного произведения в алгоритмах обработки информации (строчные буквы)
трюк с ядром
При решении задачи регрессии модель объекта строится:
в виде функциональной зависимости набора выходных переменных относительно заданного набора вещественных входных переменных
Как называется наиболее известный алгоритм, реализующий концепцию бустинга (на английском языке, строчные буквы)
AdaBoost
Как называется наиболее известный алгоритм, реализующий концепцию бэггинга (на русском языке, строчные буквы)
случайный лес
Чем меньше RSS тем регрессия (продолжить)
лучше
Чем меньше ESS тем регрессия (продолжить)
хуже
Как определяется коэффициент детерминации через ВSS,ЕSS,ТSS
ESS/TSS
Как называется метод тестирования алгоритмов обработки информации, обеспечивающий возможность использования для этого обучающей выборки
обучение с учителем
Матрица ошибок в задачах классификации на два класса определяется следующим образом (ответ B формате [a,b;c,d])
[TP, FP; FN, TN]
Два класса содержат 45 и 70 образов, соответственно, размерности 2. Какова должна быть размерность пространства, гарантировано обеспечивающего их линейную разделимость после нелинейного преобразования?
3
В чем суть метода наименьших квадратов
получение регрессионной зависимости, при которой минимизируются сумма квадратов отклонений значения выходных переменных относительно значений в получаемой зависимости
Какова размерность пространства, обеспечивающего линейную разделимость B задаче «исключающего или» на основе выполнения нелинейного преобразования С использованием RBF?
2
Last changed9 months ago