Neural Network Modeling
McCulloch & Pitts präsentieren das erste mathematische Modell von neuronalen Netzen.
Der Turing Test
Der Turing-Test bewertet, ob eine Maschine in einer Konversation von einem Menschen unterschieden werden kann.
Künstliche Intelligenz Spielt Dame
Arthur Samuel schreibt eines der ersten Machine Learning Programme. In diesem spielt das Model Dame.
Rosenblatt Perceptron
Frank Rosenblatt erfindet das erste künstliche neuronale Netz
Streichholzschachtel Computer
Donald Michie erfindet eine Maschine, die mit 304 Streichholzschachteln Reinforcement Learning nutzt, um Tic-Tac-Toe zu spielen.
Nearest-Neighbor-Heuristik
Die Nearest-Neighbour-Heuristik wurde entwickelt. Dies ist der Anfang der grundlegenden Mustererkennung. Der Algorithmus wird für die Routenplanung genutzt.
Limitationen Neuronaler Netzwerke
Marvin Minsky und Seymour Papert veröffentlichen ihr Buch Perceptrons, in dem sie Grenzen von Perceptrons und neuronalen Netzen beschreiben.
Automatic Differentiation
Seppo Linnainmaa veröffentlicht die allgemeine Methode zur automatischen Differenzierung (AD) von diskreten zusammenhängenden Netzwerken verschachtelter differenzierbarer Funktionen.
KI Winter
Unter anderem durch die Interpretation des Buchs 'Perceptrons' sowie einer kritischen Evaluation von James Lighthill sanken die Fördergelder für den Bereich KI, was zu erheblich weniger Forschung führte.
Das Stanford Cart
Studenten der Stanford University entwickeln ein Fahrzeug, das in der Lage ist durch einen Raum zu navigieren und dabei Hindernissen auszuweichen.
Neocognitron
Kunihiko Fukushima veröffentlicht seine Arbeit über das Neocognitron, eine Art künstliches neuronales Netz.
Explanation-Based-Learning
Gerald Dejong entwickelte "Explanation Based Learning" (EBL). Hierbei analysiert ein Algorithmus Daten, erstellt eine Regel und verwirft unwichtige Informationen.
NETtalk
NetTalk ist ein neuronales Netzwerk von Terrence J. Sejnowski und Charles Rosenberg, das darauf trainiert wurde, englische Wörter korrekt auszusprechen.
Parallel Distributed Processing
Parallel Distributed Processing ist ein Modell der kognitiven Verarbeitung, bei dem Informationen in einem Netzwerk von miteinander verbundenen Knoten gleichzeitig und parallel verarbeitet werden können.
Backpropagation
Noch heute ein häufig genutzter Algorithmus zum trainieren von Deep Neural Networks.
Q-Learning
Christopher Watkins entwickelt Q-Learning, das die Möglichkeiten von Reinforcement Learning bedeutend erweitert.
Maschine Spielt Backgammon
Gerald Tesauro stellt ein Programm vor, das mithilfe eines künstlichen neuronalen Netzes auf ähnlichem Niveau wie Top-Spieler Backgammon spielt.
Support Vector Machines
Corinna Cortes und Vladimir Vapnik veröffentlichen ihre Arbeit zu Support Vector Machines
Random Decision Forest
Tin Kam Ho beschreibt Random Decision Forests, eine Methode des Ensemble Learnings.
KI schlägt Schachgroßmeister
Die von IBM entwickelte Software Deep Blue gewinnt gegen Großmeister Garri Kasparov im Schach
LSTM
Sepp Hochreiter und Jürgen Schmidhuber erfinden den long short-term memory (LSTM) Algorithmus.
MNIST Database
Ein Team um Yann LeCun veröffentlicht die MNIST-Datenbank, eine Datenbank mit 60.000 Trainingsdaten handgeschriebener Ziffern.
Torch
Torch ist die erste große Open-Source-Softwarebibliothek für Machine Learning und Data Science, die veröffentlicht wurde. Torch bzw. PyTorch sind nach wie vor relevant in Industrie und Forschung.
Geoffrey Hinton und Deep Learning
Das Paper "A Fast Learning Algorithm for Deep Belief Nets" wird veröffentlicht. Dort beschreibt Geoffrey Hinton den ersten Deep-Learning Algorithmus, der bei schwierigen und komplexen Mustererkennungsaufgaben eine Leistung auf menschlichem Niveau erreichen kann.
Der Netflix Preis
er Netflix-Preis war ein offener Wettbewerb zur Entwicklung eines Algorithmus für die Vorhersage von Nutzerbewertungen, der besser funktioniert als Netflix' eigener Algorithmus. Der Preis (1 Mio. US$) wurde 2009 vom BellKor's Pragmatic Chaos Team gewonnen.
ImageNet
Li Fei-Fei stellt ImageNet als Poster auf der CVPR vor. Mithilfe von ImageNet wurden signifikante Fortschritte im Bereich der Computer Vision möglich. Objekterkennung, Bildklassifikation und weitere Techniken sind auf Daten angewiesen, die die Welt bestmöglich abbilden.
IBM's Watson gewinnt Jeopardy!
Mit einer Kombination verschiedener Machine Learning Algorithmen schlägt IBMs Watson zwei Champions in der Gameshow Jeopardy!
AlexNet
AlexNet gewinnt den LSVRC. AlexNet ist ein Convolutional Neural Network (CNN), das erstmals erfolgreich GPUs und ein Deep CNN für Computer Vision nutzt. Seitdem wurde der Artikel über 120.000 mal zitiert.
DeepFace
Facebook veröffentlicht Deep Face; eine Deep-Learning-Software, die menschliche Gesichter mit einer annähernd menschlichen Genauigkeit erkennt.
KI schlägt Go-Profi
Das von Google entwickelte Programm AlphaGo ist das erste Programm, das einen professionellen Go-Spieler ohne Handicap schlägt.
Transformers
Google Brain veröffentlicht die Transformer-Architektur. Diese ist eine leistungsfähige Variante neuronaler Netze, die seitdem in vielen Bereichen des maschinellen Lernens dominiert.
GPT-3
OpenAI veröffentlicht mit GPT-3 ein NLP-Modell, das in der Lage ist, Sprachaufgaben in einer annähernd menschenähnlichen Art und Weise zu lösen.
ChatGPT & die Gesellschaft
Die Veröffentlichung und breite Nutzung von GPT-3.5 (ChatGPT) löst eine öffentliche Diskussion über künstliche Intelligenz und ihre möglichen Auswirkungen auf die Gesellschaft aus.