Описание
Классическое компактное введение в машинное обучение. Без излишнего теоретизирования, только основные принципы, подходы и важные тонкости. На самом деле, конечно, без математического анализа и теории вероятностей обойтись не получится, но мы возьмем только самый минимум.
Самое важное, чему мы учим на тренинге – пониманию, что все машинное обучение на практике – это выбор (или перебор) подходящего вида модели – регрессия, дерево, ансамбль или нейронная сеть, а дальше в дело вступает более или менее оптимизированный подбор параметров – значений коэффициентов в уравнении регрессии, условий для узлов дерева, весов для нейронов.
удостоверение о повышении квалификации государственного образца
Цели
- Понимать ключевые концепции машинного обучения и его отличия от других методов искусственного интеллекта;
- Распознавать виды задач, решаемых методами машинного обучения, и выбирать подходящие методы;
- Уметь оценивать построенные модели;
- Уметь подготавливать входные данные и интерпретировать результаты, выдаваемые моделями;
- Использовать готовые реализации методов машинного обучения.
Целевая аудитория
Предварительная подготовка
- Базовые навыки программирования на Python
- Умение работать в командной оболочке Unix/Linux (bash)
- Базовые знания математической статистики и теории вероятностей
Разбираемые темы
-
1. Виды задач машинного обучения (теория – 1 ч.)
- Что такое машинное обучение
- Виды моделей машинного обучения
- Этапы машинного обучения
- Типовые задачи
- Компоненты решений задач
-
2. Библиотеки для машинного обучения (теория – 1 ч., практика – 2 ч.)
- NumPy, Pandas, SciPy, Matplotlib, Scikit-learn, Tensorflow
-
3. Выборки и валидация (теория – 1 ч., практика – 3 ч.)
- Оценка моделей
- Функции потерь
- Виды метрик
- Разбиение на выборки: обучающую, тестовую, проверочную
-
4. Линейные методы для регрессии и классификации (теория – 1 ч., практика – 2 ч.)
- Линейная регрессия
- Логистическая регрессия
- Оптимизация: градиентный спуск
-
5. Деревья (теория – 1 ч., практика – 2 ч.)
- Деревья решений
- Ансамбли: бустинг, бэггинг (случайный лес)
-
6. Методы кластеризации (теория – 1 ч., практика – 2 ч.)
- Разновидности методов
- Оценка качества кластеризации
- K-means
- DBSCAN
-
7. Снижение размерности (теория – 1 ч., практика – 2 ч.)
- Зачем снижать размерность
- Методы отбора признаков
- Методы конструирования признаков
- Выявление аномалий
-
8. Нейронные сети (теория – 1 ч., практика – 3 ч.)
- Нейросетевой подход в машинном обучении
- Популярные типы задач, решаемые нейронными сетями
- Устройство нейронных сетей