Spis treści
- Sztuczna inteligencja w Google
- Chatbot Google Bard
- Obiektyw Google z nową funkcją
- Wyszukiwanie lokalne w Google
- Nowe funkcje Tłumacza Google
- Zmiany w Mapach Google
Sztuczna inteligencja w Google
Wszystko wskazuje, że jesteśmy świadkami „walki gigantów”, Google i Microsoft prześcigają się w jak najszerszym zastosowaniu sztucznej inteligencji w swoich usługach. Na razie Microsoft zdaje się wygrywać w tej rywalizacji, bo według doniesień, Samsung rozważa zmianę domyślnej przeglądarki z Google na Bing, ponieważ to właśnie wyszukiwarka Bing zyskuje na popularności jako lider w implementacji narzędzi opartych na AI.
Na odpowiedź ze strony Google nie trzeba było czekać długo, oto planowanie zmiany w usługach Google. Podczas konferencji w Paryżu przedstawiciele Google'a zdradzili nieco więcej informacji na temat wykorzystania sztucznej inteligencji w innych usługach koncernu.
Chatbot Google Bard
Google wprowadził już własnego chatbota. Bard, bo tak się nazywa, ma zostać dołączony do wyszukiwarki. Obecnie dostęp do chatbota Barda mają wyłącznie użytkownicy ze Stanów Zjednoczonych i Wielkiej Brytanii. Google zapewnia, że ich chatbot pojawi się w większej liczbie krajów i w większej liczbie języków za jakiś czas.
Obiektyw Google z nową funkcją
Obiektywu Google (Google Lens) można użyć, aby dowiedzieć się, na co właśnie skierowany jest nasz aparat lub co jest na zdjęciu. W najnowszej aktualizacji dodana zostanie możliwość wyszukiwania tego, co jest widoczne na ekranie telefonu. Najnowsza technologia pozwoli na wyszukiwanie zdjęć i filmów ze stron i aplikacji widocznych na ekranie, np. czatu i rozmów wideo, bez konieczności zamykania aplikacji czy strony.„Załóżmy, że koleżanka przysłała ci wiadomość z filmikiem nakręconym podczas zwiedzania Paryża. Jeśli chcesz dowiedzieć się, jak nazywa się widoczny w tle budynek, wystarczy po prostu, że na urządzeniu z Androidem naciśniesz i przytrzymasz przyciski zasilania i ekranu głównego (co aktywuje Asystenta Google), a następnie wybierzesz opcję Wyszukaj na ekranie. Obiektyw rozpoznaje budynek jako Pałac Luksemburski. Możesz też kliknąć, aby dowiedzieć się o nim więcej. Albo wyobraźmy sobie, że spodobało Ci się krzesło widoczne na filmie, więc teraz chcesz dowiedzieć się, gdzie możesz kupić taki sam lub podobny mebel. Wystarczy nacisnąć i przytrzymać przyciski zasilania i ekranu głównego (co aktywuje Asystenta Google), a następnie wybrać opcję Wyszukaj na ekranie, aby zobaczyć dostępne oferty”.
Wyszukiwanie lokalne w Google
Google wzbogacił również dzięki AI multiwyszukiwanie o opcję wyszukiwania lokalnego. Wystarczy wybrać interesujące nas zdjęcie i dopisać „w pobliżu”, aby otrzymać wyniki lokalne. Dzięki tej funkcji sprawdzicie np. gdzie w pobliskich firmach można kupić interesujący was stolik. Ta funkcja jest na razie dostępna w USA, ale koncern planuje udostępnić ją na całym świecie w najbliższych miesiącach.
Nowe funkcje Tłumacza Google
Tłumacz Google powstał kilkanaście lat temu. Od tego czasu sztuczna inteligencja, pomogła poczynić ogromne postępy w dziedzinie tłumaczenia. W Tłumaczu Google dodane zostaną opcje tłumaczenia kontekstowego obejmujące opisy i rozmaite przykłady w języku docelowym. Użytkownik tłumaczący tekst o żurawiu (ptaku), otrzyma odpowiedni kontekst, który pozwoli odróżnić go od żurawia z placu budowy. Tłumacz podpowie odpowiednie sformułowania, idiomy stosowane przez rodzimych użytkowników języka oraz stosowne słowa. W najbliższych tygodniach funkcja ta będzie dostępna w tłumaczeniach na język angielski, francuski, hiszpański, japoński i niemiecki.
Aplikacja Tłumacz Google na Androida zyskała również nowy wygląd, odświeżony interfejs wkrótce zobaczą też użytkownicy urządzeń z iOS. Nowa wersja Tłumacza zapewnia użytkownikom większe pole do wprowadzania tekstu oraz ułatwiony dostęp do funkcji tłumaczenia rozmów, mowy oraz tekstu ze zdjęć zrobionych Obiektywem Google.
Wprowadzono również obsługę nowych gestów: język można wybrać za pomocą mniejszej liczby kliknięć – wystarczy przytrzymać przycisk języka, a następnie przesunięciem palca szybko wybrać ostatnio używany język, natomiast przesunięcie palcem w dół w obszarze pola tekstowego na ekranie głównym pozwoli wyświetlić ostatnie tłumaczenia.
Większa przejrzystość: przetłumaczony tekst jest teraz bardziej czytelny dzięki dynamicznej czcionce, która dostosowuje się podczas wpisywania tekstu. Wyświetlane są też alternatywne tłumaczenia i definicje słownikowe (jeśli są dostępne), które ułatwią odkrywanie różnych znaczeń.
Nowe pakiety językowe: Google dodał obsługę 33 nowych pakietów językowych. Są to m.in. baskijski, hawajski, hmong, jidysz, korsykański, kurdyjski, luksemburski, łacina, sundajski i zulu. Można je pobrać na urządzenie i korzystać z nich w trybie offline lub w przypadku słabego połączenia z siecią.
Zmiany w Mapach Google
Firma chce, aby Mapy Google stały się intuicyjnym narzędziem do poznawania świata i poruszania się po nim. Ta wizja jest realizowana również dzięki zastosowaniu AI. Ulepszono widok imersyjny oraz funkcję Live View, oraz dodano wskazówki dla właścicieli pojazdów elektrycznych, jak również pieszych, rowerzystów i użytkowników transportu publicznego.
- Lepszy widok imersyjny
Korzystając z możliwości AI i technologii rozpoznawania obrazów, widok imersyjny może scalić miliardy zdjęć Street View i zdjęć lotniczych, aby tworzyć szczegółowe cyfrowe modele miejsc z całego świata. Nakłada też na nie przydatne informacje np. na temat pogody, korków czy natężenia ruchu odwiedzających w wybranym miejscu.
„Załóżmy, że planujesz wizytę w amsterdamskim Rijksmuseum. Możesz wirtualnie unieść się nad budynkiem muzeum i sprawdzić z góry, gdzie znajdują się wejścia. Suwak czasu umożliwi Ci jednocześnie sprawdzenie, jak to miejsce wygląda o różnych porach dnia oraz jaka będzie pogoda. Dowiesz się również, kiedy w muzeum jest najbardziej tłoczno, a więc uzyskasz mnóstwo informacji przydatnych do podjęcia decyzji na temat najlepszej pory i miejsca odwiedzin. A jeśli zgłodniejesz, obniż lot do poziomu ulic i sprawdź okoliczne restauracje – możesz nawet zajrzeć do ich wnętrz, aby poznać panujący w nich klimat, zanim zarezerwujesz stolik”.
Aby stworzyć te realistyczne obrazy, Google korzysta z technologii sieci neuronowych (NeRF), czyli zaawansowanych funkcji AI, które przetwarzają oryginalne zdjęcia w obrazy 3D. Dzięki tej funkcji można „wejść” do restauracji i sprawdzić, czy panująca tam atmosfera będzie odpowiednia na randkę.
Widok imersyjny dostępny jest już dziś w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio. W nadchodzących miesiącach Google będzie udostępniać tę funkcję w kolejnych miastach, takich jak Amsterdam, Dublin, Florencja i Wenecja.
- Opcja Live View
Wyszukiwanie w trybie Live View wykorzystuje AI oraz rzeczywistość rozszerzoną, aby pomóc znaleźć użytkownikowi miejsca wokół niego, takie jak bankomaty, restauracje, parki i przystanki. Wystarczy, że idąc ulicą, uniesie telefon. Niedawno wdrożono wyszukiwanie z Live View w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio, a w kolejnych miesiącach planujemy wprowadzenie tej funkcji w Barcelonie, Dublinie i Madrycie. W najbliższych miesiącach wyszukiwanie za pomocą funkcji Live View będzie dostępne w Barcelonie, Dublinie i Madrycie. Strzałki wykorzystujące rzeczywistość rozszerzoną wskazują korzystającym drogę i umożliwią szybkie i pewne odnalezienie najbliższej toalety, miejsca odpoczynku, postoju taksówek czy wypożyczalni samochodów. W kolejnych miesiącach Google chce wprowadzać Live View w ponad 1000 nowych wnętrz – na lotniskach i dworcach kolejowych oraz w centrach handlowych w Barcelonie, Berlinie, Frankfurcie, Londynie, Madrycie, Melbourne, Paryżu, Pradze, São Paulo, Singapurze, Sydney, Tajpej i Tokio.
- Ułatwienia dla pojazdów elektrycznych
Nowe funkcje dla kierowców, którzy posiadają pojazdy elektryczne z wbudowanymi Mapami Google: Wyszukiwanie postojów na ładowanie dla krótszych tras. W przypadku każdej trasy, podczas której konieczny będzie przystanek na ładowanie, Mapy zasugerują najlepsze miejsce, biorąc pod uwagę aktualny ruch na drodze, poziom naładowania oraz przewidywane zużycie energii. Na Mapach Google w wynikach wyszukiwania znajdą się również miejsca ze stacjami ładowania, np. supermarkety. Te rozwiązania będą dostępne już w najbliższych miesiącach na urządzeniach z Androidem i systemem iOS. Będę też działać z funkcją Live Activities na urządzeniach z systemem iOS 16.1.
Polecany artykuł: