Изображение по автору
Для тех, кто погружается в мир информатики или хочет подправить свои знания о вероятностях, вас ждет удовольствие. Стэнфордский университет недавно обновил свой YouTube плейлист на курсе CS109 с новым содержанием!
Плейлист состоит из 29 лекций, которые предоставят вам базовые знания по основам теории вероятностей, основным понятиям теории вероятностей, математическим инструментам для анализа вероятностей, а затем по анализу данных и машинному обучению.
Итак, давайте перейдем непосредственно к делу…
Ссылка: Подсчет
Узнайте об истории вероятности и о том, как она помогла нам создать современный искусственный интеллект, на реальных примерах разработки систем искусственного интеллекта. Поймите основные этапы подсчета: счет с помощью «шагов» и счет с помощью «или». Сюда входят такие области, как искусственные нейронные сети и то, как исследователи будут использовать вероятность для создания машин.
Ссылка: Комбинаторика
Вторая лекция переходит на следующий уровень подсчета серьезности – это называется Комбинаторика. Комбинаторика – это математика счета и упорядочивания. Погрузитесь в задачи по подсчету n объектов, посредством сортировки объектов (перестановок), выбора k предметы (комбинации) и размещение предметов в r ведра.
Ссылка: Что такое Вероятность?
Именно здесь курс действительно начинает погружаться в Вероятность. Узнайте об основных правилах вероятности с помощью широкого спектра примеров и познакомьтесь с языком программирования Python и его использованием с вероятностью.
Ссылка: Вероятность и Байес
В этой лекции вы познакомитесь с тем, как использовать условные вероятности, цепное правило, закон полной вероятности и теорему Байеса.
Ссылка: Независимость
В этой лекции вы узнаете о вероятности в том смысле, что она является взаимоисключающей и независимой, используя И/ИЛИ. В лекции будут рассмотрены различные примеры, чтобы вы могли лучше усвоить суть.
Ссылка: Случайные переменные и ожидания
Основываясь на предыдущих лекциях и ваших знаниях об условных вероятностях и независимости, в этой лекции вы углубитесь в случайные величины, будете использовать и создавать функцию массы вероятности случайной величины, а также сможете рассчитывать ожидания.
Ссылка: Дисперсия бинома Бернулли
Теперь вы будете использовать свои знания для решения все более и более сложных задач. Ваша цель этой лекции — распознавать и использовать биномиальные случайные величины, случайные величины Бернулли и уметь рассчитывать дисперсию случайных величин.
Ссылка: Рыба
Пуассон хорош, когда у вас есть скорость и вас заботит количество повторений. Вы узнаете о том, как его можно использовать в различных аспектах, вместе с примерами кода Python.
Ссылка: Непрерывные случайные величины
Цели этой лекции будут включать в себя освоение новых дискретных случайных величин, интегрирование функции плотности для получения вероятности и использование кумулятивной функции для получения вероятности.
Ссылка: Нормальное распределение
Возможно, вы уже слышали о нормальном распределении раньше. В этой лекции вы познакомитесь с краткой историей нормального распределения, что это такое, почему оно важно и практическими примерами.
Ссылка: Совместные распределения
На предыдущих лекциях вы работали максимум с двумя случайными величинами, следующим шагом обучения будет изучение любого заданного количества случайных величин.
Ссылка: вывод
Цель обучения в этой лекции — научиться использовать мультиномы, оценить полезность логарифмических вероятностей и уметь использовать теорему Байеса со случайными величинами.
Ссылка: Вывод II
Цель обучения продолжается из последней лекции по объединению теоремы Байеса со случайными величинами.
Ссылка: Моделирование
В этой лекции вы возьмете все, что узнали до сих пор, и примените это к реальным проблемам – вероятностному моделированию. Это значит, что целая группа случайных величин является случайной вместе.
Ссылка: Общий вывод
Вы погрузитесь в общие выводы и, в частности, узнаете об алгоритме, называемом выборкой отклонения.
Ссылка: бета
В этой лекции речь пойдет о случайных величинах вероятностей, которые используются для решения реальных задач. Бета — это распределение вероятностей, диапазон значений которого находится в диапазоне от 0 до 1.
Ссылка: Добавление случайных переменных I
На этом этапе курса вы познакомитесь с глубокой теорией, а добавление случайных величин — это введение в то, как достичь результатов теории вероятностей.
Ссылка: Центральная предельная теорема
В этой лекции вы погрузитесь в центральную предельную теорему, которая является важным элементом теории вероятности. Вы пройдете практические примеры, чтобы понять концепцию.
Ссылка: Начальная загрузка и P-значения I
Теперь вы перейдете к теории неопределенности, выборке и начальной загрузке, вдохновленной центральной предельной теоремой. Вы пройдете практические примеры.
Ссылка: Алгоритмический анализ
В этой лекции вы немного больше погрузитесь в информатику и получите более глубокое понимание анализа алгоритмов, который представляет собой процесс определения вычислительной сложности алгоритмов.
Ссылка: МЛЭ
В этой лекции мы углубимся в оценку параметров, что даст вам больше знаний о машинном обучении. Здесь вы берете свои знания о вероятности и применяете их к машинному обучению и искусственному интеллекту.
Ссылка: КАРТА
Мы все еще находимся на этапе изучения основных принципов вероятности и их применения в машинном обучении. В этой лекции вы сосредоточитесь на параметрах машинного обучения, касающихся вероятности и случайных величин.
Ссылка: Наивный байесовский
Наивный Байес — это первый алгоритм машинного обучения, о котором вы узнаете подробно. Вы узнали о теории оценки параметров, а теперь перейдете к тому, как основные алгоритмы, такие как наивный байесовский алгоритм, приводят к таким идеям, как нейронные сети.
Ссылка: Логистическая регрессия
В этой лекции вы познакомитесь со вторым алгоритмом, называемым логистической регрессией, который используется для задач классификации, о котором вы также узнаете больше.
Ссылка: Глубокое обучение
Поскольку вы начали погружаться в машинное обучение, в этой лекции мы более подробно рассмотрим глубокое обучение на основе того, что вы уже изучили.
Ссылка: Справедливость
Мы живем в мире, где машинное обучение внедряется в нашу повседневную жизнь. В этой лекции вы рассмотрите вопросы справедливости в области машинного обучения, уделив особое внимание этике.
Ссылка: Расширенная вероятность
Вы много узнали об основах теории вероятностей и применили их в различных сценариях, а также о том, как они связаны с алгоритмами машинного обучения. Следующий шаг — немного подробнее узнать о вероятности.
Ссылка: Будущее вероятности
Цель обучения этой лекции — узнать об использовании вероятности и разнообразии задач, которые вероятность можно применить для решения этих проблем.
Ссылка: Заключительный обзор
И, наконец, последняя лекция. Вы пройдете все остальные 28 лекций и затронете любые неопределенности.
Найти хороший материал для вашего учебного пути может быть непросто. Эта вероятность для материала курса информатики поразительна и может помочь вам понять концепции вероятности, в которых вы не были уверены или нуждались в доработке.
Ниша Арья является специалистом по данным и внештатным техническим писателем. Она особенно заинтересована в предоставлении карьерных советов или учебных пособий по науке о данных, а также теоретических знаний по науке о данных. Она также хочет изучить различные способы, которыми искусственный интеллект может способствовать долголетию человеческой жизни. Страстная ученица, стремящаяся расширить свои технические знания и навыки письма, одновременно помогая другим.
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://www.kdnuggets.com/learn-probability-in-computer-science-with-stanford-university-for-free?utm_source=rss&utm_medium=rss&utm_campaign=learn-probability-in-computer-science-with-stanford-university-for-free