|
Der kanadische Informatiker
Yoshua Bengio, (*1964, Paris) ist bekannt für seine Forschung zu
künstlichen Neuronalen Netzen und Deep Learning, für
die er als einer der Pioniere mit Geoffrey Hinton und Yann LeCun gilt.
Studium
Yoshua Bengio wuchs in Frankreich und in Montreal
auf. Er studierte Elektrotechnik und Informatik an der McGill
University, an der er 1986 seinen Bachelor-Abschluss in Elektrotechnik und
1988 seinen Master-Abschluss in Informatik erhielt.
Im Jahr 1991 promovierte er bei Renato de Mori
(Dissertation: Artificial Neural Networks and Their Application to Sequence
Recognition).
Diese Dissertation behandelt neuronale Netzwerke und
Hidden Markov Models (HMM) in gemeinsamem Einsatz beim Lernen von
Unterscheidungen.
Als Post-Doktorand war er 1991/92 bei Michael I. Jordan am
Massachusetts Institute of Technology und an den Bell Laboratories
(1992/93) in der Gruppe von Larry Jackel, Yann LeCun und Vladimir Vapnik.
Lehre und Forschung
In dieser Zeit zeigte Yoshua Bengio in einer Reihe von
Arbeiten die Grenzen von Gradienten-basiertem Maschinenlernen für
parametrisierte dynamische Systeme, wozu auch rekurrente neuronale Netzwerke
oder HMM zählen.
Seit 1993 ist er Professor an der Universität
Montreal und leitete dort das Montreal Institute for Learning
Algorithms (MILA) und ist Ko-Leiter des Learning in Machines &
Brains Projekt des Canadian Institute for Advanced Research.
Er hat zusätzlich seit 2000 einen Canada Research
Chair in statistischen Lernalgorithmen.
2016 war er in Montreal Mitgründer der Firma
Element AI für Anwendungen künstlicher Intelligenz.
Yoshua Bengio befasste sich mit den Grenzen verbreiteter
Algorithmen des Maschinenlernens in der Künstlichen Intelligenz mit dem
Ziel, diese eventuell mit neuen Algorithmen und Maschinen zu umgehen.
In den 1990er Jahren stellte Yoshua Bengio die Probleme
beim Lernen der Darstellung von Kontext dar und später die Grenzen flacher
Architekturen und den schwierigen Optimierungs- und Inferenzproblemen tieferer
Architekturen neuronaler Netzwerke.
Auszeichnungen
2017 wurde Yoshua Bengio Offizier des Order of
Canada und Fellow der Royal Society of Canada. Er gehört zu den
hochzitierten Wissenschaftlern.
2018 erhielt Bengio mit Geoffrey Hinton und Yann LeCun den
Turing Award.
2020 wurde Bengio in die Royal Society
gewählt.
2022 wurde Yoshua Bengio mit dem
Prinzessin-von-Asturien- Preis in der Kategorie Wissenschaft
ausgezeichnet.
2023 erhielt er die Gerhard Herzberg Canada Gold
Medal for Science and Engineering.
2025 erhielt Bengio den Queen Elizabeth Prize for
Engineering.
. |
Yoshua Bengio.
Foto: Camille-Gladu-Drouin
.
Bengios
Ansichten zur KI |
|
Nachdem KI-Experten ihre Besorgnis über die
existenziellen Risiken der KI für die Menschheit geäußert
hatten, erklärte Yoshua Bengio 2023 in einem Interview mit der BBC,
er fühle sich verloren, was sein Lebenswerk angehe.
Bengio äußerte sich besorgt darüber,
dass böse Akteure sich der KI bemächtigen könnten,
zumal sie immer ausgefeilter und leistungsfähiger wird.
Yoshua Bengio forderte eine bessere
Regulierung, Produktregistrierung, ethische Schulungen und eine stärkere
Beteiligung der Regierungen an der Überwachung und Prüfung von
KI-Produkten.
In einem Gespräch mit der Financial
Times, das ebenfalls 2023 stattfand, sagte Bengio, dass er die
Überwachung des Zugangs zu KI-Systemen wie ChatGPT unterstütze, damit
potenziell illegale oder gefährliche Anwendungen verfolgt werden
könnten.
Im Juli 2023 veröffentlichte Bengio in The
Economist einen Artikel, in dem er argumentierte, dass "das Risiko einer
Katastrophe so real ist, dass jetzt gehandelt werden muss."
. |
.
Schriften (Auswahl)
Léon Bottou, Patrick Haffner, Paul G. Howard,
Patrice Simard, Yoshua Bengio, Yann LeCun: High Quality Document Image
Compression with DjVu, In: Journal of Electronic Imaging, Band 7, 1998,
S. 410425 doi:10.1117/1.482609
Yoshua Bengio, Dong-Hyun Lee, Jorg Bornschein, Thomas
Mesnard, Zhouhan Lin: Towards Biologically Plausible Deep Learning, arXiv.org,
2016
Mit Y. LeCun, L. Bottou, P. Haffner: Gradient-based
learning applied to document recognition, Proc. IEEE, Band 86, 1998, S.
22782324
Yoshua Bengio, Dale Schuurmans, John Lafferty, Chris K.
Williams, Chris, Aron Culotta (Hrsg.), Advances in Neural Information
Processing Systems 22 (NIPS'22), December 7th10th, 2009, Vancouver, BC,
Neural Information Processing Systems (NIPS) Foundation, 2009
Learning deep architectures in AI, in: Foundations and
trends, Machine Learning, Band 2, 2009, S. 1127
Mit Y. LeCun, G. Hinton: Deep learning, Nature, Band 521,
2015, S. 436 Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio: Neural Machine
Translation by Jointly Learning to Align and Translate, ICLR 2015, Arxiv
Ian Goodfellow, Yoshua Bengio und Aaron Courville: Deep
Learning (Adaptive Computation and Machine Learning), MIT Press, Cambridge
(USA), 2016. ISBN 978-0-262-03561-3. Neural Net Language Models, Scholarpedia.
· |