|
Zu den ersten Geldgebern
gehörten die Venture-Capital-Unternehmen Horizons Ventures und Founders
Fund sowie der Business Angel Scott Banister.
Am 26. Januar 2014 gab der US-Konzern Google
bekannt, DeepMind Technologies übernommen und damit das ebenfalls
an DeepMind interessierte UnternehmenFacebook ausgestochen zu haben
es war die bis dahin größte Übernahme des kalifornischen
Unternehmens in Europa.
Der Preis blieb geheim, Branchenkenner gingen von einem
Kaufpreis von etwa 365 Millionen Euro aus.
Mehrere Milliardäre hatten bereits in DeepMind
investiert, darunter
- Elon
Musk, CEO des privaten Raumfahrtunternehmens SpaceX und des
Elektroauto- Herstellers Tesla,
- der PayPal-Gründer und ursprüngliche
Facebook-Geldgeber Peter Thiel,
- der Skype-Mitgründer Jaan Tallinn
- sowie der Hongkonger Magnat Li Ka-shing von
Horizon Ventures, einer der mächtigsten Männer Asiens.
Nach Übernahme wurde das Unternehmen in Google
DeepMind umfirmiert. Google setzte auch einen Ethikrat ein, der
sicherstellen soll, dass die Technologie von DeepMind nicht missbraucht wird.
Die Struktur des Ethikrates blieb allerdings unklar. 2015
veröffentlichte das Unternehmen die Ergebnisse eines Forschungsprojektes,
bei der die Künstliche Intelligenz alte Atari-Spiele selbstständig
erlernen sollte.
Nach Angaben von Google
DeepMind gelang es der KI, sowohl die Spielregeln zu erlernen als auch
Erfolgstaktiken selbstständig zu entwickeln.
In 2023 wurde bekannt, dass das bisher unabhängige
Unternehmen DeepMind und die KI-Forschungsabteilung von Google, Google
Brain, zusammengelegt werden.
Der Leiter von Google Brain, Jeff Dean, wurde zum
Chief Scientist von Google befördert.
Der bisherige CEO von DeepMind,
Demis Hassabis, wurde zum CEO des neu
geschaffenen Google DeepMind ernannt und soll damit die konkrete
Ausrichtung der KI-Forschung von Google bestimmen.
Das offizielle Unternehmensziel von Google DeepMind ist,
Intelligenz zu verstehen (Solve Intelligence). Im Gegensatz zu
anderen Künstlichen Intelligenzen wie beispielsweise Deep Blue von
IBM hat Google DeepMind kein vordefiniertes Ziel und ist somit flexibler
in der Anwendung für verschiedene Probleme.
Google DeepMind unterscheidet sich ebenfalls in der
grundsätzlichen Strukturierung der Künstlichen Intelligenz. Statt
ausschließlich auf ein neuronales Netz zu setzen, erweiterte man die KI
mit einem Kurzzeitspeicher, um somit die Fähigkeit eines künstlichen
Gedächtnisses zu simulieren. Die Entwickler von Google DeepMind bezeichnen
die Künstliche Intelligenz deshalb auch als neuronale
Turingmaschine und nicht als neuronales Netz.
AlphaGo
Bei DeepMind wurde AlphaGo entwickelt, ein
Computerprogramm, das ausschließlich das Brettspiel Go spielt. Im Oktober
2015 besiegte es den mehrfachen Europameister Fan Hui.[19] Es ist damit das
erste Programm, das unter Turnierbedingungen einen professionellen Go-Spieler
schlagen konnte.
Zwischen dem 9. und 15. März 2016 trat AlphaGo gegen
den südkoreanischen Profi Lee Sedol, 9. Dan, an.
Das Programm gewann nach fünf Runden mit 4:1.
Im Jahre 2017 wurde eine verbesserte Version namens
AlphaGo Zero veröffentlicht, welche AlphaGo 100 zu 0 schlug, wobei die
Strategien von AlphaGo Zero autonom erstellt wurden.
Die Lernphase dauerte nur drei Tage, wobei AlphaGo im
Vergleich Monate dazu brauchte.
AlphaZero
AlphaZero ist eine 2017 erstmals in einer
Veröffentlichung beschriebene Verallgemeinerung des oben erwähnten
AlphaGo Zero.
AlphaZero lernte die Beherrschung der drei Brettspiele
Shogi, Schach und Go auf höchstem Niveau nur anhand der Spielregeln und
durch intensives Spielen gegen sich selbst, ohne die Nutzung von Daten zum
Vorgehen menschlicher Spieler.
DeepNash
Die Software DeepNash spielt Stratego. Ihr gelang
es im Jahr 2022, auf dem Niveau von menschlichen Spitzenspielern zu spielen.
Gegen die besten menschlichen Spieler auf der Spieleplattform Gravon erreichte
DeepNash eine Gewinnrate von 84 Prozent.
DeepNash verwendet einen neuartigen Ansatz, der auf
einer Kombination aus Spieltheorie und sogenanntem modellfreiem Deep
Reinforcement Learning basiert.
Die Software hat dafür etwa zehn Milliarden Mal gegen
sich selbst gespielt und hatte das Ziel, ein so genanntes Nash-Gleichgewicht zu
erreichen.
Ein Spiel, das sich im Nash-Gleichgewicht befindet,
verläuft stabil, denn das einseitige Abweichen von der Strategie
würde einen Nachteil bedeuten.
AlphaStar
Im Januar 2019 wurde AlphaStar vorgestellt, ein
KI-Programm, das das Echtzeit-Strategiespiel StarCraft II spielt. Wie AlphaGo
handelt es sich dabei um ein künstliches neuronales Netz, das
zunächst menschliche Spieler imitierte und dann mit Reinforcement Learning
trainiert wurde. In zwei Sätzen zu je fünf Spielen gegen die
professionellen Spieler Dario TLO Wünsch und Grzegorz
MaNa Komincz gewann AlphaStar jedes Spiel.
Die Anzahl der Aktionen pro Minute wurde auf ein für
Menschen übliches Maß beschränkt. Im Gegensatz zu menschlichen
Spielern hat AlphaStar jederzeit einen vollständigen Überblick
über die sichtbaren Teile der Karte, fokussiert sich aber dennoch immer
nur auf einzelne Bereiche.
AlphaFold analysiert Proteine
Seit 2016 arbeitete DeepMind auch am Problem, die
dreidimensionale Struktur der Proteine nur anhand der Abfolge der
Aminosäuren des Proteins vorherzusagen.
2018 nahm das von DeepMind für dieses Problem
entwickelte KI-Programm AlphaFold am Gemeinschaftsexperiment CASP
teil.
( Dies ist eine Art Wettbewerb, bei dem KI-Programme
verschiedener Institutionen genutzt werden, um die Strukturen von Proteinen
vorherzusagen.
Diese sind den CASP-Veranstaltern bekannt, aber der
Öffentlichkeit und den CASP-Teilnehmern nicht. So ist es möglich, die
Qualität der Vorhersagen zu beurteilen.)
DeepMinds AlphaFold schnitt dabei bereits bei
seiner ersten Teilnahme 2018 besser ab als die Programme der etwa 100 weiteren
Teams.
Beim nächsten CASP-Wettbewerb im Jahr 2020 war die
Vorhersagequalität des zweiten von DeepMind entwickelten Programms
AlphaFold2 so gut, dass Wissenschaftler und auch DeepMind urteilten,
dass das jahrzehntealte Problem der Proteinfaltung erstmals als gelöst
betrachtet werden könne das sei ein Meilenstein der
Strukturbiologie!
Am 15. Juli 2021 veröffentlichte DeepMind
eine quelloffene Version von AlphaFold 2 und veröffentlichte die
Funktionsweise im Fachjournal Nature.
MuZero
In den Jahren 2019 und 2020 veröffentlichte eine
Forschergruppe von DeepMind den Algorithmus MuZero, der eine Baumsuche mit
einem individuell entwickelten Machine-Learning Model kombiniert.
MuZero beruht auf Deep Reinforcement Learning und
stellt eine Weiterentwicklung der schon in AlphaGo, AlphaGo Zero
und AlphaZero verwendeten Technologien dar.
Im Gegensatz zur Alpha-Serie von KI-Systemen
ist MuZero nicht mehr auf eine bestimmte Wissensdomäne oder
Anwendungsbereich festgelegt.
Es ist keine Voreinstellung von Regeln mehr nötig und
auch keine durch Menschen gesteuerte Initialisierung mit Trainingsdaten.
Das MuZero-Softwaresystem erlernt diese Regeln
selbstständig durch Beobachtung der Umgebung, und vor allem
verfeinert es sein selbst aufgestelltes Modell und bestimmte Aspekte des
eigenen Entscheidungsprozesses.
Ein Vergleich des fertig optimierten MuZero mit
anderen KI-Systemen ergab eine mindestens gleichwertige Leistung bei Computergo
und Computerschach, aber auch in Atarigames wie Ms. Pac-Man.
Website:
deepmind.google
|
.
|
In
Kürze: |
|
Name: Google DeepMind
Branche: Künstliche Intelligenz
Rechtsform: Tochterunternehmen
Gründung: September 2010
Sitz: London, UK.
Leitung: Demis Hassabis (CEO)
Lila Ibrahim (COO)
Mitarbeiterzahl > 1000. |
.
WaveNet
WaveNet ist ein
Neuronales
Netzwerk, das ursprünglich ab 2014 zum Zweck der verbesserten,
natürlicher klingenden Text-to-Speech-Synthese (TTS) entwickelt wurde,
sprich, für menschlicher klingende Vorlesesysteme, indem das Programm
natürliche menschliche Stimmen analysieren sollte, um so auch
natürlicher klingende Sprache beim Vorlesen von Texten erzeugen zu
können.
Seit März 2018 bietet Google das auf WaveNet
basierende Vorleseprogramm Cloud Text-to-Speech im Rahmen von Google Assistant
an.
Inzwischen forscht DeepMind aber auch aktiv daran,
mit WaveNet existierende individuelle menschliche Stimmen nicht nur zum
Vorlesen von Texten möglichst exakt nachzubilden, um es mit ähnlichen
Funktionen wie etwa das 2016 von Adobe Inc. vorgestellte Adobe Voco
auszustatten.
Ein Forschungsbericht vom Juni 2018 mit dem Titel
Disentangled Sequential Autoencoder (Entflochtener sequentieller,
automatischer Stimmgenerator) berichtet, dass es erfolgreich gelungen
sei, WaveNet dafür einzusetzen, die Stimme in einer
existierenden Tonaufnahme durch jegliche andere reale Stimme zu ersetzen, die
denselben Text spricht (content swapping).
Die Autoren des Forschungsberichts betonen
außerdem, dass WaveNet dazu in der Lage sei, statische und
dynamische Eigenschaften voneinander zu unterscheiden (zu:
entflechten), d. h., das Programm trenne automatisch zwischen den
bei der Stimmkonvertierung beizubehaltenden Eigenschaften (Textinhalt,
Modulation, Geschwindigkeit, Stimmung usw.) und den zu konvertierenden
Grundeigenschaften der Quell- wie Zielstimme.
In einem Nachfolgebericht mit dem Titel Unsupervised
speech representation learning using WaveNet autoencoders
(Selbständiges Sprachmodellernen mit WaveNet) vom Januar 2019
hieß es, dass DeepMind die Unterscheidung statischer von dynamischen
Stimmeigenschaften von WaveNet weiter verbessert habe.
Die Forscher erwähnen, dass Modelle des
Maschinellen Lernens zur Demokratisierung der Fußballindustrie
eingesetzt werden könnten, indem automatisch interessante Videoclips des
Spiels ausgewählt werden, die als Highlights dienen.
Dies kann durch die Suche nach bestimmten Ereignissen in
Videos geschehen, was möglich ist, da die Videoanalyse ein etablierter
Bereich des maschinellen Lernens ist.
Möglich ist dies auch aufgrund der umfangreichen
Sportanalyse, die auf Daten wie kommentierten Pässen oder Schüssen,
Sensoren, die Daten über die Bewegungen der Spieler im Laufe eines Spiels
erfassen, und spieltheoretischen Modellen basiert.
Der Forschungsbericht Large-Scale Visual Speech
Recognition (Allgemein einsetzbare optische Spracherkennung)
vom Juli 2018 geht auf erfolgreiche Versuche ein, WaveNet zum
Lippenlesen bei menschlichen Lippenbewegungen auch in völlig
stummen Videoaufnahmen einzusetzen, wobei das Programm professionelle
menschliche Lippenleser beim Erraten der tatsächlichen Laute bereits
deutlich übertreffe.
LipNet liest Lippen
Dieses Feature scheint als eigenständiges
WaveNet-Plugin unter dem Titel LipNet entwickelt zu werden.
Fußball-Forscher von DeepMind haben Modelle
des Maschinellen Lernens auf den Fußballsport angewendet.
Sie modellieren das Verhalten von Fußballspielern,
einschließlich Torhütern, Verteidigern und Stürmern, in
verschiedenen Szenarien, z. B. beim Elfmeterschießen.
Die Forscher nutzten Heatmaps und Clusteranalysen, um die
Spieler nach ihrer Tendenz, sich während des Spiels auf eine bestimmte Art
und Weise zu verhalten, wenn sie vor der Entscheidung stehen, wie sie ein Tor
erzielen oder ein Tor der anderen Mannschaft verhindern können, zu
organisieren.
Materialwissenschaften
Das KI-Tool GNoME (Graph Networks for Materials
Exploration) hat 2023 2,2 Millionen neue Kristalle entdeckt, darunter 380.000
stabile Materialien, die zukünftige Technologien antreiben könnten.
DeepMind Ethics and Society
Im Oktober 2017 kündigte DeepMind an, das
Forschungsabteil DeepMind Ethics & Society zu gründen, welche
sich mit den folgenden Themen beschäftigen soll: Privatsphäre,
Transparenz und Gerechtigkeit und wirtschaftliche Folgen davon.
Anfang 2025 änderte die DeepMind- Muttergesellschaft
die Prinzipien für den Einsatz von künstlicher Intelligenz und
anderen fortschrittlichen Technologien.
Entfernt wurden Zusagen, "Technologien, die Schaden
verursachen oder wahrscheinlich verursachen", "Waffen oder andere Technologien,
deren Hauptzweck oder Einsatz ist, Menschen zu verletzen oder dies zu
begünstigen", "Technologien, die Informationen zur Überwachung
sammeln oder nutzen, die gegen international anerkannte Normen verstoßen"
und "Technologien, deren Zweck gegen weithin anerkannte Prinzipien des
Völkerrechts und der Menschenrechte verstößt", nicht zu
verfolgen.
Gesundheitsdaten
In 2016 gab die Firma bekannt, dass es in
Großbritannien mit der Gesundheitsbehörde National Health Service
zusammenarbeitet, um eine iPhone-App mit dem Namen Streams zu
entwickeln, allerdings sei es noch zu früh, um sagen zu können, wo KI
angewandt werden könnte.
Diese soll dabei helfen, Patienten zu überwachen,
die an einem Nierenschaden leiden. April 2016 veröffentlichte das
Fachmagazin New Scientist Details der Vereinbarung, demnach
erhält Google den Zugriff auf die Daten von 1,6 Millionen
NHS-Versicherten, die jährlich in den drei Krankenhäusern
Barnet, Chase Farm and the Royal Free des Royal Free NHS Trust behandelt
werden.
Die weitreichende Vereinbarung erlaubt einen
Datenaustausch weit über das bekannt gegebene hinaus. Enthalten sind die
Daten von HIV-positiven Patienten, Drogenabhängigen oder Frauen, die
Abtreibungen vornehmen ließen.
Das Personal von Google soll aber nicht in der Lage sein,
bestimmte Patienten zu identifizieren, und die Daten sollen nicht mit
Google-Konten oder Produkten verbunden werden, erklärte Mustafa
Suleyman, Leiter des Bereichs Angewandte KI bei
DeepMind.
· |