All posts under google lens

Google wird 20 – neue Funktionen und Verbesserungen sind angekündigt

Rawpixel.com/stock.adobe.com

Im September 1998 wurde Google gegründet und wird in dieser Woche 20 Jahre alt! Passend zum Geburtstag kündigt Google neue Funktionen und Verbesserungen für die Websuche an. Die Funktionen sollen den Nutzern dabei helfen leichter und schneller die gewünschten Ergebnisse zu erhalten. Doch was genau erwartet uns jetzt Neues bei dem Suchmaschinenbetreiber?

Deine Suche fortsetzen mit den neuen „Aktivitätskärtchen“

Zu den größten Neurungen gehören die sogenannten „Aktivitätskärtchen“. Hier werden dir deine Suchverläufe angezeigt und du kannst deine Suche da fortsetzen, wo du aufgehört hast. Die Kärtchen befinden sich direkt unter dem Eingabefeld. Sie sind verbunden mit den Internetseiten, die du besucht hast. So kannst du die Schritte deiner Suche zurückverfolgen. Das ist sehr praktisch, wenn du dich nicht mehr genau daran erinnern kannst, auf welcher Website du interessante und nützliche Informationen gefunden hast. Zudem ist es möglich die Anzeige des Kärtchens zu pausieren oder Ergebnisse aus dem Verlauf gezielt zu löschen. Wenn dir diese neue Funktion nicht zusagt und du dir Google so zurückwünschst, wie du es gewohnt bist, dann kannst du die Anzeige der Aktivitätskärtchen komplett unterbinden.

Besseren Überblick über gesuchte Inhalte bekommen

Mit den neuen „Sammlungen“ bietet Google euch eine wesentlich bessere Übersicht über all eure gesuchten Inhalte. Bisher war diese Funktion unter „Google Saves“ bekannt. Doch jetzt gibt es einige Neuerungen. Ihr könnt hier weiterhin Inhalte hinzufügen, die für euch nützlich sind. Das können Webseiten, Bilder oder Artikel sein. Mit dieser Funktion ist alles, was euch interessiert, in einer guten Übersicht sichtbar. Um eure Inhalte noch besser zu organisieren, könnt ihr jetzt sogar die erwähnten „Aktivitätskärtchen“ in eine eurer Sammlungen hinzufügen. Die neue Funktion erinnert an eine Art digitale Pinnwand und ähnelt der Aufmachung der App „Pinterest“. Im Hintergrund der neuen Sammlungen von Google ist eine künstliche Intelligenz dafür zuständig, dass der Nutzer immer mehr neue Ergebnisse zu sehen bekommt

Was steckt hinter der neuen „Discover“ Funktion?

Wer neue interessante Inhalte und Themen entdecken möchte, der ist bei der neuen „Discover“-Funktion genau richtig. Diese Funktion findet man direkt auf der mobilen Startseite. Bisher hatte der Google Feed keinen Namen. Doch jetzt gibt es ein neuen Namen und sogar ein neues Design, das es einfacher macht interessante Inhalte zu entdecken. Wenn einem ein aufgelistetes Thema zusagt, dann reicht schon ein Klick aus und man kann mehr darüber erfahren und entdecken.

Objekterkennung bei der Bildersuche mit „Google Lens“

Die Technologie „Google Lens“ ist eine mobile Bilderkennungs-Anwendung. Künftig soll es mit der Technologie möglich sein erkannte Gegenstände in den Fotos hervorzuheben. Wenn man anschließend auf das jeweilige Objekt klickt, dann sucht Google nun nach ähnlichen Dingen.


Image by Rawpixel.com via stock.adobe.com

Weiterlesen »

Google I/O 2018 – Android P und jede Menge Künstliche Intelligenz

google-io-2018

Heute geht im Shoreline Amphitheatre in Mountain View die diesjährige Entwicklerkonferenz Google I/O zuende. An drei Tagen tauschten sich hier Entwickler und Fachbesucher aus aller Welt über die neusten Technologien insbesondere aus dem Hause Google aus. Für ausreichend Gesprächsstoff hatte die Eröffnungsrede von Google-CEO Sundar Pichai nämlich gesorgt. So will Google etwa seine Chromebooks für Entwickler attraktiver machen, indem künftig Linux-Anwendungen auf den Google-Laptops laufen. Das schließt auch die Entwicklungsumgebung Android Studio ein. Damit können Entwickler künftig auf Chromebook arbeiten, ohne das Google-Ökosystem verlassen zu müssen.

Android P – Peanutbar maybe?

Aber obwohl die Google I/O sich schon seit den letzten Jahren immer stärker an Entwickler richtet – schließlich ist es eine Entwicklerkonferenz – machte Pichai auch einige spannenden Ankündigungen für Endnutzer. Besonders interessant: die Beta-Version von Android P mit einem neuen Bedienkonzept, das optisch an LGs Betriebssystem WebOS erinnert und ein eher gestenbasiertes Steuerschema bietet. Bis Android P den Namen einer Süßigkeit bekommt und auf den Geräten der Nutzer installiert wird, dürften allerdings noch Monate, wenn nicht Jahre vergehen. Dann soll Android P dank maschinellen Lernens unter anderem das Nutzer-Verhalten beobachten und Apps beenden, die unbenutzt im Hintergrund laufen.

Google I/O
Knapp 5.000 Entwickler haben es auf die Konferenz Google I/O geschafft. Das Unternehmen sucht sich seine Gäst vorher aus. Image by Google

Nicht stören: #LuxuryToDisconnect

Ein besonders zeitgeistiges Feature bietet Android P ebenfalls: es zeigt Nutzern an, wie viel Zeit sie in jeder einzelnen App verbringen und ermöglicht es ihnen, Zeitlimits für bestimmte Anwendungen festzulegen. Ist die voreingestellte Zeit abgelaufen, lässt sich die App nicht mehr öffnen, es sei denn man ändert in den Einstellungen das Zeitlimit. Auch der verbesserte Nicht-stören-Modus unterstreicht den Entschleunigungs-Trend. Nutzer können nun ihr Telefon so einstellen, dass es keine Benachrichtigungen mehr auf dem Bildschirm angezeigt, weder auf dem Sperrbildschirm noch in der Benachrichtigungsleiste. Zudem lässt sich der Modus neuerdings einfach aktivieren, indem Nutzer das Telefon mit dem Display nach unten auf einem Tisch ablegen. “Slush“ nennt Google dieses Feature.

Falls ihr ein Telefon besitzt, dass die Beta-Version unterstützt, könnt ihr sie jetzt schon installieren und ausprobieren. Allerdings wäre der Wechsel zurück auf Oreo nicht so einfach. Falls ihr Android P also testen wollt, benutzt am besten kein Telefon, dass ihr täglich braucht, denn die Beta-Version wird vermutlich noch etliche Bugs und Usability-Probleme aufweisen. Wem das zu umständlich ist, kann sich stattdessen gerne an den Spekualtionen rund um den neuen Versionsnamen beteiligen.

Ähm, ich hätte gerne einen Termin

Um Sprachassistenten und Künstliche Intelligenz ging es schon bei den I/O-Events in 2016 und 2017. In diesem Jahr war das nicht anders. Am meisten Furore sorgte Google-Chef Pichai wohl mit der experimentellen Google Assistant-Funktion namens “Duplex“: Nutzer können Google Assistant bitten, in ihrem Namen ein Unternehmen anzurufen, um einen Termin zu machen. Dass das tatsächlich schon ganz gut funktioniert, demonstrierte Google mit zwei Telefonanrufen. Im ersten macht Google Assistant mit weiblicher Stimme einen Friseurtermin, im zweiten versucht sich eine männliche Stimme an einer Tischreservierung. Beide Demos zeigen deutlich, dass Google in Sachen Natural Language Processing große Fortschritte macht. Um möglichst natürlich und menschlich zu wirken, baut die KI paraverbale Elemente, wie Verzögerungslaute, Interjektionen oder Stimmlage ein.

Dies und Das – Bitte, danke!

Die Liste mit Neuerungen umfasst noch etliche andere, eher kleinere Änderungen. So bietet Gmail etwa eine Autocomplete-Funktion, die sich in der Realität als ziemlich nervig erweisen dürfte. Google Fotos mit Gesichtserkennung kann Freunde in Bildern erkennen und die betreffenden Fotos per Knopfdruck mit ihnen teilen. Ebenfalls mit einem Knopfdruck könnt ihr jetzt Fotos in PDFs umwandeln. Google Assistant bekommt außerdem ein Höflichkeits-Feature, das Google speziell für die Kindererziehung entwickelt hat. Der Assistent lobt und ist besonders freundlich, wenn ihr bei Fragen an den Assistenten das Wörtchen “Bitte“ sagt. Daher der Name “Pretty Please“ – finde ich nicht nur für Kinder angebracht. Google Pretty Please von Soma Helmi auf Vimeo.

Google Assistant kommt in diesem Sommer auf iOS und Android auch in Google Maps. Dort soll er in den neuen Tabs “Explore“ und “For You“ personalisierte Ergebnisse liefern und Empfehlungen für Orte in der Nähe geben. Zudem kombiniert Google Maps auch die KI-Kamera mit Computer Vision Technologie und Street View. Google Lens erkennt Gebäude oder sogar Hunderassen, wenn ihr eure Kamera auf ein Objekt richten. Diese Objekterkennung wird auch in der Lage sein, Text zu identifizieren, in Echtzeit zu übersetzen oder einzulesen. Ein weiteres Feature namens “Style-Match“ sucht mit Hilfe von Objekterkennung und maschinellem Lernen in Googles Datenbank nach ähnlichen Kleidungsstücken, Möbeln und Objekten, die ihr kaufen könnt.

Material Design 2.0 mit neuem Material Theming-Tool

Mein persönliches Highlight bei der Google I/O dürften die wenigsten Nutzern bewusst bemerkt haben, aber Google hat sein Branddesign weiterentwickelt.

Google I/O Branddesign
Das neuen Design-Tool Material-Theme soll Unternehmen helfen, ihr Branddesign auf Interfaces zu übertragen. Image by Google

Dabei nutzte es das neue Material Theming-Tool, das auf Googles Designsprache Material Design basiert. Das Tool soll helfen, Brandelemente einfacher in Interfaces zu übersetzen. Google hat diese neue Funktion als erstes an seinen eigenen Produkten ausprobiert. So wechselt jetzt etwa der Ladenbalken bei YouTube mit jeder Umdrehung in eine der vier Google-Farben. Auch in Gmail könnt ihr das neue Design entdecken. Mir gefällt es gut. Vor allem der Aspekt, dass sich Apps zukünftig besser unterscheiden sollen und nicht mehr alles aussieht wie von Google, wenn Entwickler mit Material Design arbeiten. Android-Smartphones bei Amazon (Provisions-Link)

Dieser Artikel erschien zuerst auf Netzpiloten Android.


Images by Google

Weiterlesen »