Siri może być lepsza dzięki nowemu patentowi
fot. Apple.com

Apple szkoli Siri w rozumieniu ludzi o nietypowej mowie – w tym jąkających się

Asystenci głosowi są z nami na rynku od wielu lat. Początkowo były to bardzo ograniczone rozwiązania, ale z czasem wiele zostało poprawione. Nie zwalnia to jednak producentów z ciągłego ulepszania swoich produktów. Apple właśnie stara się wyszkolić Siri, aby asystent lepiej rozumiał ludzi o nietypowej mowie.

Asystent oczekuje od Ciebie wyraźnej i typowej wymowy

Producenci sukcesywnie dodawali do swoich asystentów kolejne ciekawe i przydatne funkcje. Z czasem sztuczna inteligencja okazała się bardzo pomocna i dzisiaj wiele osób nie wyobraża sobie nie korzystać z głosowych pomocników na swoich smartfonach, smartwatchach czy smart głośnikach.

Jest jednak jeden problem, z którym te rozwiązania borykają się niemal od samego początku – poprawne rozpoznawanie mniej typowej wymowy. Kłopoty pojawiają się, kiedy mówimy niewyraźnie lub mamy inne problemy z mówieniem i przykładowo jąkamy się. W takich sytuacjach niezależnie czy jest to Apple SiriAsystent Google czy Amazon Alexa to istnieje duże prawdopodobieństwo, że nie zostaniemy zrozumiani, a wtedy przydatność tego rozwiązania znika.

Apple pracuje nad wyszkoleniem Siri

Jak podaje The Wall Street Journal gigant z Cupertino rozpoczął kolejny etap usprawniania swojego wirtualnego asystenta. Amerykanie stworzyli bank ponad 28 tysięcy klipów audio (z podcastów) przedstawiających osoby jąkające się. Baza ta ma posłużyć do wytrenowania Siri, a według rzecznika Apple, dane przez nich zebrane usprawnić mają rozpoznawanie głosu dla nietypowych wzorców mowy.

Apple szkoli Siri w rozumieniu ludzi o nietypowej mowie - w tym jąkających się

Nie jest to pierwszy krok wykonany przez producenta w kierunku osób z takimi problemami. Już w 2015 roku wprowadzono do systemu opcję „Hold to Talk”, która pozwala użytkownikom kontrolować jak długo Siri ma nasłuchiwać. W ten oto sposób Siri nie przerywa użytkownikom jąkającym się, zanim skończą oni wydawać polecenie lub zadawać pytanie.

Google i Amazon również pracują nad podobnym problemem

W przytoczonym artykule możemy również przeczytać, że zarówno Google, jak i Amazon, podejmują próby rozwiązania tego samego problemu. Asystent Google i Alexa również szkolą się, aby lepiej rozumieć wszystkich użytkowników, niezależnie od tego, jak dobrze posługują się aparatem mowy.

Google w tym celu zbiera nietypowe dane mowy, które mają posłużyć za bazę do nauki dla ich asystenta, ale nie wiadomo dokładnie, czym te dane są. Amazon z kolei w grudniu zeszłego roku uruchomił specjalny fundusz Alexa Fund, aby umożliwić osobom z zaburzeniami mowy szkolenie algorytmu. Tym samym użytkownicy sami pomagają w rozpoznawaniu ich unikalnych i mniej typowych wzorców wokalnych.

Asystenci głosowi są naprawdę pomocni, dobrze zatem, że nadal się uczą

Nie ukrywam, że należę do osób, którym zdarza się rozmawiać ze swoimi urządzeniami. Cenię sobie wygodę szybkiego wydania polecenia lub zapytania o informację, bez odrywania się od aktualnych czynności. Cieszę się, że producenci nie zwalniają tempa i ciągle starają się ulepszać swoje rozwiązania.

Tym razem ulepszenia nie dotyczą nowych funkcji, a lepszego rozpoznawania mowy. Bardzo dobrze, że tak się stało – na nowe funkcje przyjdzie czas, a planowane zmiany sprawią, że asystenci głosowi będą dostępni dla szerszego grona użytkowników.