Учите вероятность в компьютерных науках с Стэнфордским университетом БЕСПЛАТНО

Бесплатное обучение вероятности в компьютерных науках с Стэнфордским университетом

 

Для тех, кто погружается в мир компьютерных наук или нуждается в освежении своих знаний о вероятности, для вас есть замечательная новость. Стэнфордский университет недавно обновил плейлист своего курса CS109 на YouTube с новым контентом!

Плейлист состоит из 29 лекций, которые предоставят вам золотые стандарты базовой теории вероятности, основные концепции теории вероятности, математические инструменты для анализа вероятностей, а также заканчиваются анализом данных и машинным обучением.

Итак, приступим…

 

Лекция 1: Подсчет

 

Ссылка: Подсчет

Узнайте о истории вероятности и о том, как она помогла нам достичь современного искусственного интеллекта, на примерах разработки систем искусственного интеллекта. Поймите основные этапы подсчета, подсчет с использованием “шагов” и подсчет с использованием “или”. Это включает такие области, как искусственные нейронные сети и то, как исследователи используют вероятность для создания машин.

 

Лекция 2: Комбинаторика

 

Ссылка: Комбинаторика

Вторая лекция переходит на следующий уровень подсчета с серьезностью – это называется комбинаторика. Комбинаторика – это математика подсчета и расстановки. Занимайтесь подсчетом задач на n объектов, посредством сортировки объектов (перестановок), выбора k объектов (комбинаций) и размещения объектов в r контейнерах.

 

Лекция 3: Что такое вероятность?

 

Ссылка: Что такое вероятность?

Здесь курс действительно начинает погружаться в вероятность. Узнайте о основных правилах вероятности на широком спектре примеров и ознакомьтесь с языком программирования Python и его использованием в вероятности.

 

Лекция 4: Вероятность и Байес

 

Ссылка: Вероятность и Байес

На этой лекции вы узнаете, как использовать условные вероятности, правило цепочки, закон полной вероятности и теорему Байеса.

 

Лекция 5: Независимость

 

Ссылка: Независимость

На этой лекции вы узнаете о вероятности в отношении ее взаимного исключения и независимости, используя И/ИЛИ. В лекции будут рассмотрены различные примеры, чтобы вы лучше понимали.

 

Лекция 6: Случайные переменные и ожидания

 

Ссылка: Случайные переменные и ожидания

На основе предыдущих лекций и ваших знаний о условных вероятностях и независимости, эта лекция рассмотрит случайные переменные, использование и создание функции вероятности дискретной случайной переменной и способность вычислять математическое ожидание.

Лекция 7: Дисперсия Бернулли Биномиальной

Ссылка: Дисперсия Бернулли Биномиальной

Теперь вы сможете применить свои знания для решения все более сложных задач. Вашей целью на этой лекции будет узнать и использовать биномиальные случайные переменные, бернуллиевы случайные переменные и уметь вычислять дисперсию случайных переменных.

Лекция 8: Пуассоновское распределение

Ссылка: Пуассоновское распределение

Пуассоновское распределение отлично подходит, когда вас интересует количество событий при определённой интенсивности. Вы узнаете, как оно может быть использовано в различных областях, а также приведены примеры кода на Python.

Лекция 9: Непрерывные случайные переменные

Ссылка: Непрерывные случайные переменные

Цель этой лекции – научиться уверенно работать с новыми дискретными случайными переменными, интегрировать плотность вероятности для расчёта вероятностей и использовать кумулятивную функцию для расчёта вероятностей.

Лекция 10: Нормальное распределение

Ссылка: Нормальное распределение

Вы можете слышать о нормальном распределении раньше, в этой лекции вы познакомитесь с его историей, определением, важностью и практическими примерами.

Лекция 11: Совместные распределения

Ссылка: Совместные распределения

В предыдущих лекциях вы работали только с двумя случайными переменными, а следующим шагом будет изучение любого количества случайных переменных.

Лекция 12: Вывод

Ссылка: Вывод

Цель этой лекции – научиться использовать мультиномиальное распределение, понять ценность логарифмических вероятностей и уметь применять теорему Байеса с случайными переменными.

Лекция 13: Вывод II

Ссылка: Вывод II

Цель обучения продолжается с предыдущей лекции о сочетании теоремы Байеса с случайными переменными.

 

Лекция 14: Моделирование

 

Ссылка: Моделирование

На этой лекции вы объедините все, что вы узнали до сих пор, и поставите это в перспективу реальных проблем жизни – вероятностное моделирование. Это объединение целого набора случайных переменных.

 

Лекция 15: Общий вывод

 

Ссылка: Общий вывод

Вы погрузитесь в общий вывод и, в частности, узнаете о таком алгоритме, как отбор образцов.

 

Лекция 16: Бета

 

Ссылка: Бета

На этой лекции будет рассмотрено случайные переменные вероятностей, которые используются для решения проблем реального мира. Бета – это распределение для вероятностей, где его значения находятся в диапазоне от 0 до 1.

 

Лекция 17: Сложение случайных переменных

 

Ссылка: Добавление случайных переменных I

На этом этапе курса вы узнаете о глубокой теории, а добавление случайных переменных является введением в то, как достичь результатов теории вероятности.

 

Лекция 18: Центральная предельная теорема

 

Ссылка: Центральная предельная теорема

На этой лекции вы погрузитесь в центральную предельную теорему, которая является важным элементом в теории вероятности. Вы будете рассматривать практические примеры, чтобы понять концепцию.

 

Лекция 19: Бутстрэпинг и P-значения

 

Ссылка: Бутстрэпинг и P-значения I

Теперь вы перейдете к теории неопределенности, выборки и бутстрэпингу, которые были вдохновлены центральной предельной теоремой. Вы пройдете практические примеры.

 

Лекция 20: Анализ алгоритмов

 

Ссылка: Анализ алгоритмов

На этой лекции вы более подробно погрузитесь в информатику, чтобы углубленно понять анализ алгоритмов, который представляет собой процесс нахождения вычислительной сложности алгоритмов.

 

Лекция 21: M.L.E.

Ссылка: M.L.E.

На этой лекции мы продолжим изучение оценки параметров, что даст вам больше знаний о машинном обучении. Здесь вы примените свои знания вероятности к машинному обучению и искусственному интеллекту.

Лекция 22: M.A.P.

Ссылка: M.A.P.

Мы продолжаем осваивать основы вероятности и ее применение в машинном обучении. На этой лекции вы сфокусируетесь на параметрах в машинном обучении, связанных с вероятностью и случайными величинами.

Лекция 23: Naive Bayes

Ссылка: Naive Bayes

Naive Bayes – это первый алгоритм машинного обучения, который вы углубленно изучите. У вас уже есть базовые знания о теории оценки параметров, и теперь вы перейдете к тому, как основные алгоритмы, такие как Naive Bayes, приводят к идеям, таким как нейронные сети.

Лекция 24: Логистическая регрессия

Ссылка: Логистическая регрессия

На этой лекции вы погрузитесь во второй алгоритм, называемый логистической регрессией, который используется для задач классификации. Вы также узнаете больше об этом.

Лекция 25: Deep Learning

Ссылка: Deep Learning

Так как вы уже начали изучать машинное обучение, эта лекция будет рассказывать подробнее о глубоком обучении исходя из вашего уже полученного опыта.

Лекция 26: Фейрмесс

Ссылка: Фейрмесс

Мы живем в мире, где машинное обучение применяется в повседневной жизни. На этой лекции вы рассмотрите вопросы фейрмесса в машинном обучении с уклоном в этику.

Лекция 27: Продвинутая вероятность

Ссылка: Продвинутая вероятность

Вы уже много узнали о базовых принципах вероятности и применяли их в различных сценариях в контексте алгоритмов машинного обучения. Следующий шаг – изучить немного более сложные концепции вероятности.

Лекция 28: Будущее вероятности

Ссылка: Будущее вероятности

Цель изучения этой лекции – узнать о применении вероятности и разнообразии проблем, которые можно решить с помощью вероятности.

 

Лекция 29: Итоговый обзор

 

Ссылка: Итоговый обзор

И последняя лекция. Вы пройдете все остальные 28 лекций и рассмотрите все непонятные моменты.

 

Завершение

 

Найти хороший материал для вашего учебного пути может быть сложно. Этот материал по вероятности для компьютерных наук удивительный и может помочь вам усвоить концепции вероятности, с которыми вы были неуверены или нуждались в подкреплении знаний.

****[Nisha Arya](https://www.linkedin.com/in/nisha-arya-ahmed/)**** – это дата-сайентист и фриланс-технический писатель. Она особенно заинтересована в предоставлении советов по карьере в области науки о данных или обучающих материалов и теоретических знаний в области науки о данных. Она также хочет исследовать различные способы применения искусственного интеллекта для продления человеческой жизни. Стремительный ученик, стремящийся расширить свои знания в области технологий и навыки письма, помогая при этом руководить других.