Google veranstaltete am 8. Februar 2023 eine KI-Veranstaltung mit dem Titel „Live From Paris“. Bei dieser Veranstaltung kündigten leitende Google-Mitarbeiter die Fortschritte von Google im Bereich KI an und wie die Welt große Veränderungen in diesem Bereich erleben wird Suche, Karten, Kunst und Kultur sowie Reisen.
Google feiert dieses Jahr sein 25-jähriges Jubiläum. Diese Veranstaltung war die erste Veranstaltung des Jahres 2023 und es gab einige Mängel, die wir am Ende dieses Artikels aufgelistet haben.
Die gesamte 40-minütige Veranstaltung kann weiterhin auf YouTube angesehen werden, indem Sie auf diesen Link klicken.
Oder
Lesen Sie einfach alles Wichtige in 4 Minuten.
Was können wir in naher Zukunft von Google erwarten?
Google Bard
Google hat seinen neuen KI-Chatbot-Dienst namens Bard angekündigt, der in der Technologiebranche bereits für Aufsehen sorgt. Es liefert Ihnen informative und sachdienliche Antworten auf Ihre Anfragen. Bard nutzt die LaMDA-Technologie (Language Model for Dialogue Applications). Derzeit wird von Apps wie Bard und ChatGPT nur eine Antwort pro Frage erstellt.
Google hat erklärt, dass in einem frühen Test eine „leichte“ Variante des Modells verfügbar gemacht wird Phase vor der vollständigen Markteinführung. Die Testphase durch interne und externe Tester hat bereits begonnen. Für viele Fragen gibt es mehrere mögliche Lösungen. Daher bietet die neue Google-Suche sowohl herkömmliche Suchergebnisse als auch KI-ChatBot-ähnliche Antworten.
Google Translate
Über Eine Milliarde Menschen auf der ganzen Welt nutzen Google Translate in 133 Sprachen. In der realen Welt haben Vertriebene aus der Ukraine festgestellt, dass diese App ein Lebensretter ist, wenn die Flüchtlinge in viele verschiedene Länder in ganz Europa ziehen. Google hat kürzlich 33 neue Sprachen (Korsisch, Latein, Jiddisch usw.) im Offline-Modus hinzugefügt, damit Benutzer ohne Internet kommunizieren können.
Ein großer neuer Durchbruch in der Google Translate-App ist, dass sie bald verfügbar sein wird mehrere Bedeutungen für Wörter, die für die Verwendung in mehr als einem Kontext konzipiert sind. Diese Funktion wird zunächst in Englisch, Deutsch, Französisch, Japanisch und Spanisch verfügbar sein. In Kürze wird diese Funktion in weiteren Sprachen verfügbar sein. Nehmen wir zum Beispiel das Wort „Inhalt“, das verwendet werden kann, um sich glücklich zu fühlen und das Material (Text, Video, Audio) zu beschreiben.
Lens Multisearch
Google-Nutzer können alles im Internet überprüfen, indem sie ein Foto davon machen oder ein Bild verwenden aus der Fotobank ihres Geräts. Die Linse wird jeden Monat zehn Milliarden Mal verwendet, was zeigt, dass die visuelle Suche von einer Neuheit zur Realität geworden ist. Benutzer können nach bestimmten Elementen in Bildern oder Videos suchen. Google Lens kann die Struktur erkennen, indem es die Funktion nutzt, den Namen eines Gebäudes in einem Video nachzuschlagen. Diese neue Lens-Funktionalität wird in den kommenden Monaten verfügbar sein.
Eine der Hauptattraktionen der Veranstaltung war die Multisuche von Google Lens. Die Hauptidee besteht darin, für die Suche nach etwas sowohl Text als auch ein Bild zu verwenden. Sie können beispielsweise ein Foto von einem Hemd machen und die Farbe eingeben, in der Sie es kaufen möchten. Diese Funktion wurde von Google weltweit implementiert.
Multisuche in meiner Nähe
Google hat auch „Multisearch in meiner Nähe“ vorgestellt, mit dem Sie nach Artikeln wie einer bestimmten Mahlzeit oder einem bestimmten Artikel in der Nähe suchen können. Derzeit ist es nur in den USA zugänglich. Android-Nutzer können bald mit Google Lens Text- und Bildsuchen durchführen, ohne jemals den aktuellen Bildschirm zu verlassen.
Immersive View
Immersive View, das wurde nur für Sehenswürdigkeiten entwickelt und ist jetzt in fünf Städten erhältlich: London, Los Angeles, New York City, San Francisco und Tokio. Benutzer können Gebäude virtuell überfliegen, um Eingänge, Verkehrsmuster und sogar belebte Bereiche zu überprüfen. Sie können auf Google Maps zugreifen, um Wegbeschreibungen anzuzeigen, und die Augmented-Reality-Pfeile ihrer Geräte können Wegbeschreibungen auf tatsächliche Standorte projizieren.
Benutzer können den Zeitschieber verwenden, um zu sehen, wie ein Standort an verschiedenen Orten angezeigt wird mal. Benutzer können sogar sehen, wie ein Ort zu verschiedenen Tageszeiten und bei unterschiedlichen Wetterbedingungen aussehen wird und wann es weniger überfüllt wäre. Benutzer von Immersive View können mit der Anwendung sogar Cafés im Inneren betrachten, um den Ort vor ihrem Besuch zu erkunden.
Benutzer können mit einer Immersive View auch vor ihrer Ankunft ein Gefühl dafür bekommen, wie ein Ort im Inneren aussieht. Google tut dies mit Hilfe von Neural Radiance Fields (NeRF), einer KI-Methode, die aus vielen Standbildern, die aus verschiedenen Perspektiven aufgenommen wurden, durch Zuordnung von Farbe und Licht eine 3D-gerenderte Szene erstellt. Walkthroughs, die erkundet werden können, werden mit NeRF erstellt.
Interior Live View, eine vergleichbare AR-Lösung für Innenbereiche wie Flughäfen und Einkaufszentren, war ebenfalls zu sehen. Es ermöglicht Benutzern das schnelle Auffinden von Objekten wie der Gepäckausgabe, dem nächstgelegenen Aufzug und Gastronomiebereichen. Es wird bei 1.000 eingeführt neue Standorte, darunter Einkaufszentren, Bahnhöfe und Flughäfen.
EV-Ladefilter
Google veröffentlicht außerdem einige brandneue Tools zur Unterstützung von E-Auto-Fahrern. Für schnelle Reisen empfiehlt Google Maps Ladestationen mit dem Filter „sehr schnell“. Wenn Sie nach Standorten wie Hotels oder Supermärkten suchen, werden Ihnen auch Ladestationen angezeigt (sofern verfügbar). Diese Funktionen werden für Elektrofahrzeuge mit integriertem Google Maps verfügbar sein.
Google Arts & Culture
Google hat ein Update zu Woolaroo bereitgestellt, einem KI-gestützten Foto- Übersetzungstool, das im Mai 2021 eingeführt wurde. Ziel ist es, Dinge in Bildern zu erkennen und Benutzern ihre Namen in vielen gefährdeten Sprachen bereitzustellen.
Der Fokus lag nun auf der Verwendung des Instruments zur Konservierung unter anderem die Beiträge von Frauen zur Wissenschaft. Das Kunst- und Kulturteam deckte bisher verborgene Errungenschaften von Wissenschaftlerinnen auf, indem es KI zur Auswertung von Fotografien und historischen wissenschaftlichen Aufzeichnungen einsetzte.
Google setzte auch KI-Algorithmen ein, um bekannte Kunstwerke zu analysieren Kunden ein AR-Erlebnis, das es ihnen ermöglichte, das Kunstwerk bis zum letzten Pinselstrich nur mit ihren Smartphones zu betrachten.
Etwas Würziges: Ein paar Mängel des KI-Events „Live From Paris“ von Google
Alle Redner fummelten während der gesamten Veranstaltung herum.
Dies ist möglicherweise kein wichtiger Punkt bei der Beurteilung des Erfolgs einer Veranstaltung, sondern alle Redner Die in verschiedenen Abschnitten der Veranstaltung anwesenden Personen fummelten während der gesamten Veranstaltung herum, während sie sprachen. Offenbar waren sie noch nicht bereit für die Veranstaltung, oder der Inhalt der Veranstaltung hätte sich möglicherweise ein wenig geändert, nachdem einen Tag zuvor die Microsoft-Veranstaltung zur Bing-Integration mit ChatGPT stattgefunden hatte.
Google Bard war nicht der Richtige Mittelpunkt der Anziehungskraft der Veranstaltung.
Die meisten von uns erwarteten, dass Google Bard der Hauptdiskussionspunkt sein würde, aber überraschenderweise gab es keine neuen Enthüllungen über Bard. Google hatte einige Tage vor dieser Veranstaltung bestimmte Informationen über Bard bekannt gegeben und diese wurden auf der Veranstaltung wiederholt.
Das Testgerät ging verloren.
Wenn Wenn Sie erwarten, dass Google eine Veranstaltung durchführt, wäre diese wahrscheinlich einwandfrei. Ein paar Mängel können passieren, weil die Dinge nicht jedes Mal so laufen, wie Sie es geplant haben. Doch ein fehlendes Testgerät zeugt von mangelnder Vorbereitung auf die Veranstaltung. Daher haben wir die Demonstration der Multi-Suchfunktion verpasst . Wahrscheinlich wurde die 40-minütige Veranstaltung deshalb in 38 Minuten abgerundet.
Google Bard ist möglicherweise nicht immer genau.
Die KI-ChatBot-Technologie ist ziemlich neu und wir können von Google Bard und seinen Konkurrenten mit einer gewissen Ungenauigkeit rechnen. Es gibt insbesondere ein Beispiel, bei dem die von Google veröffentlichte Demo über Bards Antworten an einen Neunjährigen einige ungenaue Informationen enthält.
Die NASA gibt an, dass der letzte Punkt ist ungenau, da die ersten Bilder eines Exoplaneten vom Hubble-Weltraumteleskop aufgenommen wurden. (Referenzartikel)
Ihre Gedanken zum KI-Event „Live From Paris“ von Google
Die neuen Projekte von Google erweisen sich als interessanter und attraktiver als Microsofts Bing-Integration mit dem ChatGPT-Event fand gestern statt. Wir müssen einige Zeit warten, bis wir all diese KI-gesteuerten Funktionen nutzen können, und dann selbst beobachten, wie KI unser Leben besser als zuvor machen wird.
Bitte lassen Sie es uns in den Kommentaren unten wissen, wenn Sie welche haben Fragen oder Empfehlungen. Gerne unterbreiten wir Ihnen eine Lösung. Wir veröffentlichen regelmäßig Ratschläge, Tricks und Lösungen für häufig auftretende technische Probleme. Sie finden uns auch auf Facebook, Twitter, YouTube, Instagram, Flipboard und Pinterest.
Lesen: 0