Логотип Зефирнет

Изучите вероятность в информатике в Стэнфордском университете БЕСПЛАТНО – KDnuggets

Дата:

Изучите вероятность в области компьютерных наук в Стэнфордском университете БЕСПЛАТНО
Изображение по автору
 

Для тех, кто погружается в мир информатики или хочет подправить свои знания о вероятностях, вас ждет удовольствие. Стэнфордский университет недавно обновил свой YouTube плейлист на курсе CS109 с новым содержанием!

Плейлист состоит из 29 лекций, которые предоставят вам базовые знания по основам теории вероятностей, основным понятиям теории вероятностей, математическим инструментам для анализа вероятностей, а затем по анализу данных и машинному обучению.

Итак, давайте перейдем непосредственно к делу…

Ссылка: Подсчет

Узнайте об истории вероятности и о том, как она помогла нам создать современный искусственный интеллект, на реальных примерах разработки систем искусственного интеллекта. Поймите основные этапы подсчета: счет с помощью «шагов» и счет с помощью «или». Сюда входят такие области, как искусственные нейронные сети и то, как исследователи будут использовать вероятность для создания машин. 

Ссылка: Комбинаторика

Вторая лекция переходит на следующий уровень подсчета серьезности – это называется Комбинаторика. Комбинаторика – это математика счета и упорядочивания. Погрузитесь в задачи по подсчету n объектов, посредством сортировки объектов (перестановок), выбора k предметы (комбинации) и размещение предметов в r ведра. 

Ссылка: Что такое Вероятность?

Именно здесь курс действительно начинает погружаться в Вероятность. Узнайте об основных правилах вероятности с помощью широкого спектра примеров и познакомьтесь с языком программирования Python и его использованием с вероятностью. 

Ссылка: Вероятность и Байес

В этой лекции вы познакомитесь с тем, как использовать условные вероятности, цепное правило, закон полной вероятности и теорему Байеса. 

Ссылка: Независимость

В этой лекции вы узнаете о вероятности в том смысле, что она является взаимоисключающей и независимой, используя И/ИЛИ. В лекции будут рассмотрены различные примеры, чтобы вы могли лучше усвоить суть.

Ссылка: Случайные переменные и ожидания

Основываясь на предыдущих лекциях и ваших знаниях об условных вероятностях и независимости, в этой лекции вы углубитесь в случайные величины, будете использовать и создавать функцию массы вероятности случайной величины, а также сможете рассчитывать ожидания. 

Ссылка: Дисперсия бинома Бернулли

Теперь вы будете использовать свои знания для решения все более и более сложных задач. Ваша цель этой лекции — распознавать и использовать биномиальные случайные величины, случайные величины Бернулли и уметь рассчитывать дисперсию случайных величин. 

Ссылка: Рыба

Пуассон хорош, когда у вас есть скорость и вас заботит количество повторений. Вы узнаете о том, как его можно использовать в различных аспектах, вместе с примерами кода Python.

Ссылка: Непрерывные случайные величины

Цели этой лекции будут включать в себя освоение новых дискретных случайных величин, интегрирование функции плотности для получения вероятности и использование кумулятивной функции для получения вероятности. 

Ссылка: Нормальное распределение

Возможно, вы уже слышали о нормальном распределении раньше. В этой лекции вы познакомитесь с краткой историей нормального распределения, что это такое, почему оно важно и практическими примерами.

Ссылка: Совместные распределения

На предыдущих лекциях вы работали максимум с двумя случайными величинами, следующим шагом обучения будет изучение любого заданного количества случайных величин.

Ссылка: вывод

Цель обучения в этой лекции — научиться использовать мультиномы, оценить полезность логарифмических вероятностей и уметь использовать теорему Байеса со случайными величинами. 

Ссылка: Вывод II

Цель обучения продолжается из последней лекции по объединению теоремы Байеса со случайными величинами. 

Ссылка: Моделирование

В этой лекции вы возьмете все, что узнали до сих пор, и примените это к реальным проблемам – вероятностному моделированию. Это значит, что целая группа случайных величин является случайной вместе.

Ссылка: Общий вывод

Вы погрузитесь в общие выводы и, в частности, узнаете об алгоритме, называемом выборкой отклонения. 

Ссылка: бета

В этой лекции речь пойдет о случайных величинах вероятностей, которые используются для решения реальных задач. Бета — это распределение вероятностей, диапазон значений которого находится в диапазоне от 0 до 1. 

Ссылка: Добавление случайных переменных I

На этом этапе курса вы познакомитесь с глубокой теорией, а добавление случайных величин — это введение в то, как достичь результатов теории вероятностей. 

Ссылка: Центральная предельная теорема

В этой лекции вы погрузитесь в центральную предельную теорему, которая является важным элементом теории вероятности. Вы пройдете практические примеры, чтобы понять концепцию.

Ссылка: Начальная загрузка и P-значения I

Теперь вы перейдете к теории неопределенности, выборке и начальной загрузке, вдохновленной центральной предельной теоремой. Вы пройдете практические примеры. 

Ссылка: Алгоритмический анализ

В этой лекции вы немного больше погрузитесь в информатику и получите более глубокое понимание анализа алгоритмов, который представляет собой процесс определения вычислительной сложности алгоритмов.

Ссылка: МЛЭ

В этой лекции мы углубимся в оценку параметров, что даст вам больше знаний о машинном обучении. Здесь вы берете свои знания о вероятности и применяете их к машинному обучению и искусственному интеллекту. 

Ссылка: КАРТА

Мы все еще находимся на этапе изучения основных принципов вероятности и их применения в машинном обучении. В этой лекции вы сосредоточитесь на параметрах машинного обучения, касающихся вероятности и случайных величин. 

Ссылка: Наивный байесовский

Наивный Байес — это первый алгоритм машинного обучения, о котором вы узнаете подробно. Вы узнали о теории оценки параметров, а теперь перейдете к тому, как основные алгоритмы, такие как наивный байесовский алгоритм, приводят к таким идеям, как нейронные сети. 

Ссылка: Логистическая регрессия

В этой лекции вы познакомитесь со вторым алгоритмом, называемым логистической регрессией, который используется для задач классификации, о котором вы также узнаете больше. 

Ссылка: Глубокое обучение

Поскольку вы начали погружаться в машинное обучение, в этой лекции мы более подробно рассмотрим глубокое обучение на основе того, что вы уже изучили. 

Ссылка: Справедливость

Мы живем в мире, где машинное обучение внедряется в нашу повседневную жизнь. В этой лекции вы рассмотрите вопросы справедливости в области машинного обучения, уделив особое внимание этике. 

Ссылка: Расширенная вероятность

Вы много узнали об основах теории вероятностей и применили их в различных сценариях, а также о том, как они связаны с алгоритмами машинного обучения. Следующий шаг — немного подробнее узнать о вероятности. 

Ссылка: Будущее вероятности

Цель обучения этой лекции — узнать об использовании вероятности и разнообразии задач, которые вероятность можно применить для решения этих проблем. 

Ссылка: Заключительный обзор

И, наконец, последняя лекция. Вы пройдете все остальные 28 лекций и затронете любые неопределенности. 

Найти хороший материал для вашего учебного пути может быть непросто. Эта вероятность для материала курса информатики поразительна и может помочь вам понять концепции вероятности, в которых вы не были уверены или нуждались в доработке.
 
 

Ниша Арья является специалистом по данным и внештатным техническим писателем. Она особенно заинтересована в предоставлении карьерных советов или учебных пособий по науке о данных, а также теоретических знаний по науке о данных. Она также хочет изучить различные способы, которыми искусственный интеллект может способствовать долголетию человеческой жизни. Страстная ученица, стремящаяся расширить свои технические знания и навыки письма, одновременно помогая другим.

Spot_img

Последняя разведка

Spot_img