Бауманский учебный центр «Специалист»

Программа курса Python для машинного обучения
  Тема Ак. часов  
   
  Модуль 1. Постановка задачи машинного обучения
  • Три типа машинного обучения.
  • Схема построения систем машинного обучения.
  • Необходимый инструментарий.
  • Практика по созданию рабочего окружения и использования Anaconda и Jupyter Notebook.
2  
  Модуль 2. Обучение с учителем. Задача классификации
  • Понятие нейронной сети.
  • Персептрон. Определение, реализация и обучение.
  • Адаптивный линейный нейрон. Определение, реализация и обучение.
  • Метод градиентного спуска.
  • Стохастический градиентный спуск в адаптивном линейном нейроне.
  • Динамическое обучение на больших данных.
  • Практика с модельными наборами и наборами данных Scikit-Learn.
  • Практика в Jupyter Notebook.
6  
  Модуль 3. Библиотека scikit-learn, ее основные возможности
  • Обучение персептрона.
  • Метод логистической регрессии.
  • Метод опорных векторов.
  • Метод k ближайших соседей.
  • Деревья принятия решений.
  • Ансамбль произвольных деревьев.
  • Практика в Jupyter Notebook.
6  
  Модуль 4. Обучение с учителем. Задача регрессии
  • Обучение с учителем. Задача регрессии.
  • Линейная регрессия.
  • Метод наименьших квадратов.
  • Метод градиентного спуска.
  • Работа с выбросами. Алгоритм RANSAC().
  • Бутстрап методика для коэффициентов регрессии.
  • Оценка качества регрессионной модели.
  • Основы нелинейной регрессии.
  • Практика в Jupyter Notebook.
6  
  Модуль 5. Предобработка данных, отбор признаков и моделей
  • Обработка пропущенных данных.
  • Обработка категорий.
  • Модели предобработки и обучения.
  • Отбор значимых признаков.
  • Исследование значимых признаков случайными лесами.
  • Конвееры машинного обучения.
  • Кросс-валидация и отбор моделей.
  • Практика в Jupyter Notebook.
6  
  Модуль 6. Обучение без учителя. Кластерный анализ
  • Метод k средних.
  • Анализа основных компонент.
  • Анализа линейного дискриминанта.
  • Иерархическая кластеризация.
  • Кластеризация по плотности.
  • Практика в Jupyter Notebook.
6  
  Модуль 7. Основы глубокого обучения
  • Графы и распределенные вычисления.
  • Установка Tensorflow.
  • Тензоры.
  • Наборы данных.
  • Прикладной интерфейс (API) Keras.
  • Линейная регрессия со стохастическим градиентным спуском.
  • Классификация двухслойной нейронной сетью данных Iris.
  • Функции активации слоев нейронов.
  • Классификация данных MNIST.
  • Практика в Google Colab.
8  
  Аудиторная нагрузка в классе с преподавателем 40 +20
бесплатно
 
  По окончании обучения на курсе проводится итоговая аттестация. Аттестация проводится в виде теста на последнем занятии или на основании оценок практических работ, выполняемых во время обучения на курсе.