Konwersacje z asystentami głosowymi mogą wydawać się obecnie nieco zbyt sztuczne w porównaniu z rozmowami, które odbywamy z ludźmi. Google pragnie to zmienić i wprowadza kilka ciekawych nowości, dzięki którym Asystent Google ma stać się nieco bardziej naturalny.
Porzuć komendę „Hey Google”
Pierwszą z ciekawych zmian jest funkcja nazwana „Look and Talk”. Dzięki niej, posiadacze inteligentnych ekranów Google będą mogli uruchomić Asystenta za pomocą… wzroku. Nowość ta wykorzystuje rozpoznawanie użytkownika poprzez Face Match oraz Voice Match, co pozwala urządzeniu upewnić się, że to właśnie jeden z domowników wydaje polecenia. Producent zapewnia przy tym, że obraz z kamery jest przetwarzany lokalnie, na wyświetlaczu i nie trafia do Google ani do nikogo innego.
Look and Talk zostało udostępnione pierwszym użytkownikom Nest Hub Max w Stanach Zjednoczonych. By z niej skorzystać wystarczy, że użytkownik podejdzie do inteligentnego ekranu i spojrzy na niego. W rogu wyświetlacza pojawi się ikonka Asystenta, który rozpocznie nasłuchiwanie. A co najlepsze, w tej sytuacji nie wymaga on ręcznej aktywacji komendą „Hey Google” lub „OK Google”, przez co rozmowa staje się o wiele bardziej naturalna.
Jak przekazał producent, cały proces stojący za nową funkcją jest o wiele bardziej skomplikowany, niż mogłoby się wydawać. Urządzenie wykorzystuje sześć modeli uczenia maszynowego, by rozpoznawać ponad 100 sygnałów, które do niego docierają – odległość od użytkownika, położenie głowy, kierunek wzroku, ruch ust i nie tylko. Dotyczy to również rozpoznawania kontekstu w celu zachowywania płynniejszej rozmowy.
Ponadto, użytkownicy Nest Hub Max mogą od teraz wywoływać wybrane szybkie komendy bez konieczności wypowiadania „Hey Google”. Wśród nich znalazły się najbardziej podstawowe czynności, takie jak ustawianie minutnika lub sterowanie oświetleniem w domu.
Płynniejsza rozmowa z Asystentem
Kolejną nowością, jaka została zapowiedziana przez producenta, jest lepsze rozpoznawanie ludzkiej mowy i prowadzenie bardziej naturalnych rozmów z użytkownikami. Google pragnie, by użytkownicy zachowywali się jak najbardziej naturalnie podczas rozmów z asystentem, w czym pomogą nowe modele mowy, rozpoznające jeszcze więcej zachowań.
Ma to znacząco poprawić komfort korzystania z usługi – wkrótce Asystent Google będzie w stanie rozpoznać, kiedy użytkownik zrobił krótką przerwę w środku wypowiedzi i potrzebuje chwili na dokończenie komendy. Producent chce, by AI stojące za usługą było w stanie lepiej rozumieć wszelkie niedoskonałości ludzkiej mowy, takie jak na przykład głośne przerywniki (wszelkie „yyy” lub „ummm”, gdy zastanawiamy się nad dalszym przebiegiem wypowiedzi) czy właśnie pauzy w zdaniu.
Równocześnie podkreślono, że Asystent Google staje się z każdym dniem jeszcze lepszy, w szczególności na urządzeniach wykorzystujących chip Tensor, który pozwala na jeszcze lepsze uczenie maszynowe oraz szybsze przetwarzanie komend i generowanie odpowiedzi.