Zephyrnet-Logo

Lernen Sie KOSTENLOS Wahrscheinlichkeitstheorie in Informatik an der Stanford University – KDnuggets

Datum:

Lernen Sie KOSTENLOS Wahrscheinlichkeitsrechnung in Informatik an der Stanford University
Bild vom Autor
 

Wer in die Welt der Informatik eintaucht oder sein Wahrscheinlichkeitswissen auffrischen möchte, wird hier fündig. Die Stanford University hat kürzlich ihre aktualisiert YouTube Playlist auf seinem CS109-Kurs mit neuen Inhalten!

Die Playlist umfasst 29 Vorlesungen, die Ihnen erstklassiges Wissen über die Grundlagen der Wahrscheinlichkeitstheorie, wesentliche Konzepte der Wahrscheinlichkeitstheorie, mathematische Werkzeuge zur Analyse von Wahrscheinlichkeiten und schließlich Datenanalyse und maschinelles Lernen vermitteln.

Also lasst uns gleich loslegen …

Link: Zählen

Erfahren Sie anhand realer Beispiele für die Entwicklung von KI-Systemen mehr über die Geschichte der Wahrscheinlichkeit und wie sie uns bei der Verwirklichung moderner KI geholfen hat. Verstehen Sie die wichtigsten Zählphasen, das Zählen mit „Schritten“ und das Zählen mit „oder“. Dazu gehören Bereiche wie künstliche neuronale Netze und die Art und Weise, wie Forscher Wahrscheinlichkeiten nutzen würden, um Maschinen zu bauen. 

Link: Kombinatorik

In der zweiten Vorlesung geht es um die nächste Ebene der Ernsthaftigkeitszählung – diese nennt sich Kombinatorik. Kombinatorik ist die Mathematik des Zählens und Ordnens. Tauchen Sie ein in Zählaufgaben n Objekte, durch Sortieren von Objekten (Permutationen), Auswählen k Objekte (Kombinationen) und das Einfügen von Objekten r Eimer. 

Link: Was ist Wahrscheinlichkeit?

Hier beginnt der Kurs wirklich, sich mit der Wahrscheinlichkeit zu befassen. Erfahren Sie mehr über die Grundregeln der Wahrscheinlichkeit anhand einer Vielzahl von Beispielen und einem Einblick in die Programmiersprache Python und ihre Verwendung mit Wahrscheinlichkeiten. 

Link: Wahrscheinlichkeit und Bayes

In dieser Vorlesung erfahren Sie, wie Sie bedingte Wahrscheinlichkeiten, die Kettenregel, das Gesetz der Gesamtwahrscheinlichkeit und das Bayes-Theorem verwenden. 

Link: Unabhängigkeit

In dieser Vorlesung lernen Sie die Wahrscheinlichkeit im Hinblick darauf, dass sie sich gegenseitig ausschließt und unabhängig ist, mithilfe von UND/ODER. In der Vorlesung werden verschiedene Beispiele durchgespielt, damit Sie sich einen guten Überblick verschaffen können.

Link: Zufällige Variablen und Erwartungen

Basierend auf den vorherigen Vorlesungen und Ihrem Wissen über bedingte Wahrscheinlichkeiten und Unabhängigkeit werden Sie in dieser Vorlesung in Zufallsvariablen eintauchen, die Wahrscheinlichkeitsmassenfunktion einer Zufallsvariablen verwenden und erzeugen und in der Lage sein, Erwartungen zu berechnen. 

Link: Varianz Bernoulli Binomial

Sie werden Ihr Wissen nun nutzen, um immer schwierigere Probleme zu lösen. Ihr Ziel für diese Vorlesung wird es sein, binomiale Zufallsvariablen und Bernoulli-Zufallsvariablen zu erkennen und zu verwenden und die Varianz für Zufallsvariablen berechnen zu können. 

Link: Fisch

Poisson ist großartig, wenn Sie eine Rate haben und Ihnen die Anzahl der Vorkommen wichtig ist. Sie erfahren anhand von Python-Codebeispielen, wie es in verschiedenen Aspekten eingesetzt werden kann.

Link: Kontinuierliche Zufallsvariablen

Zu den Zielen dieser Vorlesung gehört es, mit neuen diskreten Zufallsvariablen vertraut zu sein, eine Dichtefunktion zu integrieren, um eine Wahrscheinlichkeit zu erhalten, und eine kumulative Funktion zu verwenden, um eine Wahrscheinlichkeit zu erhalten. 

Link: Normalverteilung

Vielleicht haben Sie schon einmal etwas über die Normalverteilung gehört. In dieser Vorlesung werden Sie einen kurzen Überblick über die Geschichte der Normalverteilung geben, was sie ist, warum sie wichtig ist und praktische Beispiele zeigen.

Link: Gemeinsame Ausschüttungen

In den vorherigen Vorlesungen haben Sie höchstens mit 2 Zufallsvariablen gearbeitet, der nächste Lernschritt wird darin bestehen, auf eine beliebige Anzahl von Zufallsvariablen einzugehen.

Link: Inferenz

Das Lernziel dieser Vorlesung besteht darin, Multinomiale zu verwenden, die Nützlichkeit logarithmischer Wahrscheinlichkeiten zu schätzen und das Bayes-Theorem mit Zufallsvariablen anwenden zu können. 

Link: Schlussfolgerung II

Das Lernziel setzt sich aus der letzten Vorlesung fort und kombiniert das Bayes-Theorem mit Zufallsvariablen. 

Link: Modellieren

In dieser Vorlesung werden Sie alles, was Sie bisher gelernt haben, in die richtige Perspektive auf reale Probleme übertragen – probabilistische Modellierung. Dies erfordert, dass eine ganze Reihe von Zufallsvariablen zusammen zufällig sind.

Link: Allgemeine Schlussfolgerung

Sie werden in allgemeine Schlussfolgerungen eintauchen und insbesondere etwas über einen Algorithmus namens Rejection Sampling lernen. 

Link: beta

Diese Vorlesung befasst sich mit den Zufallsvariablen von Wahrscheinlichkeiten, die zur Lösung realer Probleme verwendet werden. Beta ist eine Verteilung für Wahrscheinlichkeiten, deren Bereichswerte zwischen 0 und 1 liegen. 

Link: Zufallsvariablen hinzufügen I

An diesem Punkt des Kurses lernen Sie die Tiefentheorie kennen und das Hinzufügen von Zufallsvariablen ist eine Einführung in die Art und Weise, wie Sie Ergebnisse der Wahrscheinlichkeitstheorie erhalten. 

Link: Zentraler Grenzwertsatz

In dieser Vorlesung tauchen Sie in den zentralen Grenzwertsatz ein, der ein wichtiges Element der Wahrscheinlichkeit ist. Sie werden praktische Beispiele durchgehen, damit Sie das Konzept verstehen können.

Link: Bootstrapping und P-Werte I

Sie befassen sich nun mit der Unsicherheitstheorie, dem Sampling und dem Bootstrapping, die vom zentralen Grenzwertsatz inspiriert sind. Sie werden praktische Beispiele durchgehen. 

Link: Algorithmische Analyse

In dieser Vorlesung tauchen Sie etwas tiefer in die Informatik ein und erhalten ein tiefgreifendes Verständnis der Analyse von Algorithmen, also des Prozesses zur Ermittlung der rechnerischen Komplexität von Algorithmen.

Link: MLE

In dieser Vorlesung befassen wir uns mit der Parameterschätzung, die Ihnen mehr Wissen über maschinelles Lernen vermittelt. Hier nutzen Sie Ihr Wissen über Wahrscheinlichkeit und wenden es auf maschinelles Lernen und künstliche Intelligenz an. 

Link: KARTE

Wir sind immer noch dabei, die Grundprinzipien der Wahrscheinlichkeit und deren Anwendung auf maschinelles Lernen zu übernehmen. In dieser Vorlesung konzentrieren Sie sich auf Parameter im maschinellen Lernen in Bezug auf Wahrscheinlichkeit und Zufallsvariablen. 

Link: Naiver Bayes

Naive Bayes ist der erste Algorithmus für maschinelles Lernen, den Sie ausführlich kennenlernen werden. Sie haben etwas über die Theorie der Parameterschätzung gelernt und werden nun damit fortfahren, wie Kernalgorithmen wie Naive Bayes zu Ideen wie neuronalen Netzen führen. 

Link: Logistische Regression

In dieser Vorlesung tauchen Sie in einen zweiten Algorithmus namens Logistische Regression ein, der für Klassifizierungsaufgaben verwendet wird und über den Sie auch mehr erfahren. 

Link: Tiefes Lernen

Da Sie begonnen haben, sich mit maschinellem Lernen zu befassen, wird diese Vorlesung auf der Grundlage dessen, was Sie bereits gelernt haben, detaillierter auf Deep Learning eingehen. 

Link: Fairness

Wir leben in einer Welt, in der maschinelles Lernen in unseren Alltag integriert wird. In dieser Vorlesung befassen Sie sich mit der Fairness rund um maschinelles Lernen, wobei der Schwerpunkt auf Ethik liegt. 

Link: Erweiterte Wahrscheinlichkeit

Sie haben viel über die Grundlagen der Wahrscheinlichkeit gelernt und sie in verschiedenen Szenarien und deren Zusammenhang mit Algorithmen für maschinelles Lernen angewendet. Der nächste Schritt besteht darin, etwas tiefer in die Wahrscheinlichkeit einzusteigen. 

Link: Zukunft der Wahrscheinlichkeit

Das Lernziel dieser Vorlesung besteht darin, etwas über die Verwendung der Wahrscheinlichkeit und die Vielfalt der Probleme zu lernen, mit denen die Wahrscheinlichkeit zur Lösung dieser Probleme angewendet werden kann. 

Link: Abschließende Prüfung

Und zu guter Letzt der letzte Vortrag. Sie werden alle anderen 28 Vorlesungen durchgehen und eventuelle Unklarheiten ansprechen. 

Es kann schwierig sein, gutes Material für Ihre Lernreise zu finden. Diese Wahrscheinlichkeit für Informatikkursmaterial ist erstaunlich und kann Ihnen helfen, Wahrscheinlichkeitskonzepte zu verstehen, bei denen Sie sich nicht sicher waren oder die Sie nachbessern mussten.
 
 

Nisha Arya ist Data Scientist und freiberuflicher technischer Redakteur. Sie ist besonders daran interessiert, Data Science Karriereberatung oder Tutorials und theoriebasiertes Wissen rund um Data Science anzubieten. Sie möchte auch die verschiedenen Möglichkeiten untersuchen, wie künstliche Intelligenz der Langlebigkeit des menschlichen Lebens zugute kommt/kann. Eine begeisterte Lernende, die ihr technisches Wissen und ihre Schreibfähigkeiten erweitern möchte, während sie anderen hilft, sie zu führen.

spot_img

VC-Café

VC-Café

Neueste Intelligenz

spot_img