Google BrainGoogle Brain war eine Deep-Learning-Abteilung (Feld von Maschinelles Lernen und Künstliche Intelligenz) von Google.[1][2] Der Hauptsitz befand sich in Mountain View in Kalifornien; weitere Sitze waren in Cambridge (Massachusetts), London, Montreal, New York City, San Francisco, Toronto und Zürich.[2] Das Team von Google Brain wurde im April 2023 mit der Schwesterfirma DeepMind zu Google DeepMind fusioniert.[3] GeschichteDas Projekt wurde 2011 als ein Teilzeit-Forschungsprojekt von den Google-Mitarbeitern Jeff Dean, Greg Corrado und dem Professor der Stanford University Andrew Ng gestartet.[4][5][6] Größere Aufmerksamkeit erhielt das Projekt erstmals im Juni 2012, als ein Cluster aus 16.000 Computern erstmals eine Katze auf Basis von YouTube-Bildern erkannte.[6][7][8] Aktionen und ForschungGesundheits- und TodesvorhersageGoogle Brain versucht mit der Hilfe von Deep Learning den Todeszeitpunkt von Patienten zu ermitteln. Hierfür wurden zunächst 216.221 Akten von Patienten, die mindestens 24 Stunden stationär behandelt wurden, von dem System untersucht. So wurden aus den Akten und den dazugehörigen Arztberichten etwa 46 Millionen Datenpunkte entnommen. Die Daten erhielt das Forschungsteam von den Krankenhäusern „University of California San Francisco Medical Center“ und „University of Chicago Medicine“. Dadurch kann die Software eine Sterblichkeitsprognose im Krankenhaus, eine mögliche Wiederaufnahme innerhalb von 30 Tagen oder auch eine verlängerte Aufenthaltsdauer voraussagen. Somit können Entscheidungen von Ärzten bereits deutlich früher getroffen werden. Zudem ist die Software durch das künstliche neuronale Netz lernfähig und schneidet bisher am besten von vergleichbaren Software-Lösungen ab.[9][10][11][12][13] Computerbewertung der Qualität und Ästhetik von Medien-DateienIm Dezember 2017 stellte Google Brain das Neural Image Assessment (deutsch: neurale Bildbewertung) Google NIMA vor, welches in der Lage ist Bilder nach ihrer Ästhetik zu bewerten. Diese nutzt ein Deep Convolutional Neural Network und ist in der Lage eine subjektive Bewertung der Bilder abzugeben. Dabei ähnelte sie stark den von Menschen getroffenen Entscheidungen und ist bisher die umfangreichste und fortgeschrittenste Software in diesem Bereich. So kann sie den Menschen bei der Suche helfen und größere Medien-Daten bereits filtern.[14][15] Robotik2016 arbeitete Google Brain mit Google X zusammen, um an selbstlernenden Robotern zu forschen. 2017 stellte Google die drei Ziele für neues Lernen der Roboter auf. Diese sollen durch verstärkendes Lernen, durch ihre eigene Interaktion mit Objekten und durch menschliche Demonstration erreicht werden.[16] Die Roboter sollen auch in der Lage sein, komplexere Aufgaben als Industrieroboter zu lösen. Android und weitere bekannte Google-SoftwareEinige der erforschten und entwickelten Technologien werden bereits in Google-Produkten und dem Android-Betriebssystem verwendet. Dazu zählen beispielsweise die Spracherkennung,[17] die Fotosuche auf Google+[18] und die Video-Empfehlungen bei YouTube.[19] SprachverarbeitungIm September 2016 wurde Google Übersetzer auf ein künstliches neurales Netz umgestellt, welches eine genauere und menschenähnlichere Übersetzung ermöglichen und das manuelle Eingeben der benötigten Wortdaten ersparen soll.[20][21] Im Februar 2018 stellten Forscher von Google Brain einen Algorithmus vor, der Informationen aus mehreren Texten sammeln und extrahieren können soll, um damit Lexikonartikel in natürlicher Sprache und enzyklopädischer Form, zum Beispiel für Wikipedia, verfassen zu können. Allerdings schränken die Entwickler des Algorithmus ein, dass die Qualität noch deutlich von menschlichen Autoren abweiche, der Algorithmus Probleme bei vielen Quellen habe und nicht in der Lage sei, zwischen vertrauenswürdigen und unglaubwürdigen Informationen zu unterscheiden.[22][23] Siehe auch
WeblinksEinzelnachweise
|