Mozilla DeepSpeech jest aktualizowany z szybszymi tłumaczeniami

DeepSpeech 0.6 Jest to narzędzie open source Mozilli, które służy do opracowywania inteligentnych wirtualnych asystentów, a jedną z jego nowości jest integracja z Tensor Flow w celu szybszego tłumaczenia w czasie rzeczywistym.

Mozilla Machine Learning Group zaprezentowała aktualizacje DeepSpeech z tłumaczeniem tekstu na mowę i tłumaczeniem głosu na tekst, które można wykonać w 260 milisekundach po zakończeniu audio, czyli o 73% szybciej niż przed zastosowaniem dekodera transmisji.

Reuben Morais, starszy inżynier ds. Badań, powiedział DeepSpeech 0.6 Jest o wiele bardziej wydajny, ponieważ dekoder transmisji zapewnia stałe niskie opóźnienia.

Również model tłumaczenia na język angielski jest znacznie szybszy, zgodnie z publikacją, a także poprawił się pod względem wielkości, ponieważ został zredukowany do 3,7 MB, po 98 MB miałem wcześniej.

Najnowsza wersja DeepSpeech dodaje obsługę TensorFlow Lite, która pozwala na implementację na urządzeniach mobilnych takich jak Android, a także szereg ograniczeń komputerowych.

TensorFlow Lite, mniejsze modele, krótszy czas uruchamiania

TensorFlow Lite to lekka wersja zestawu programistycznego do uczenia maszynowego Google TensorFlow, który oferuje idealne funkcje DeepSpeech dla urządzeń mobilnych:

To zmniejszyło rozmiar pakietu DeepSpeech z 98 MB do 3.7 MB. Zmniejszył rozmiar naszego angielskiego modelu z 188 MB do 47 MB.

DeepSpeech v0.6 z TensorFlow Lite działa szybciej niż w czasie rzeczywistym w jednym rdzeniu Raspberry Pi 4.

Mozila twierdzi, że nowy dekoder umożliwia ujawnienie metadanych czasu w interfejsie API, a także rozszerzony zestaw nowych funkcji.

DeepSpeech oferuje również wsparcie dla Windows, z linkami do .NET i Python, JavaScript i C. Ta najnowsza wersja DeepSpeech jest dostępna dla Windows, macOS i Linux, a także na Androida.