Skip to content

Instantly share code, notes, and snippets.

@emsi
Forked from ChrisB85/tutorial.txt
Created February 10, 2019 20:17
Show Gist options
  • Star 0 You must be signed in to star a gist
  • Fork 0 You must be signed in to fork a gist
  • Save emsi/09cececfe0a14135922fe59b574c4f87 to your computer and use it in GitHub Desktop.
Save emsi/09cececfe0a14135922fe59b574c4f87 to your computer and use it in GitHub Desktop.
Sterowanie urządzeniami głosem w języku polskim przy użyciu Raspberry Pi, asystenta Snips i Home Assistant
Co będzie potrzebne?
- Raspberry Pi (zalecane 3B lub 3B+, ale myślę, że 2 również da radę) z zainstalowanym Raspbianem
- Głośnik i mikrofon. Można użyć zwykłego "dongla" typu https://pupilsys.com/image/cache/catalog/Product_images/PS139/USB_soundCard-600x600.jpg z wejściem na mikrofon i wyjściem na głośniki lub przystawki typu HAT. Ja użyłem Sound Blaster SBX8, czyli głośnik i mikrofon USB w jednym (http://www.benchmark.pl/mini-recenzje/creative-sound-blaster-axx-sbx8-test.html). Jedyny problem jaki napotkałem i którego nie udało mi się przeskoczyć, to "rwanie" dźwięku (zarówno nagrywanie jak odtwarzanie) w sytuacji, kiedy system jest również na nośniku podłączonym pod USB (u mnie dysk SSD). W przypadku systemu na karcie SD wszystko jest OK. Należy również zwrócić uwagę na fakt, że głośnik ten pobiera maksymalnie 1A z portu USB.
1. Instalacja
Wykonujemy instalację zgodnie z instrukcją: https://docs.snips.ai/getting-started/quick-start-raspberry-pi (kroki 1-4). Nie opisuję tutaj tego dokładniej, bo dokumentacja ulega modyfikacjom. Podczas moich zabaw kilka rzeczy się zmieniło w "międzyczasie" (konkretnie to zostało opisane dokładniej).
2. Tworzenie asystenta
Rejestrujemy się na https://console.snips.ai, tworzymy nowy model asystenta jako język wybierając angielski. Sam proces tworzenia modelu asystenta jest dokładnie opisany na stronie https://docs.snips.ai/getting-started/quick-start-console
3. Obsługa języka polskiego
Rozpoznawanie języka polskiego (ASR):
Odinstalowujemy pakiet snips-asr, a następnie instalujemy snips-asr-google
sudo apt-get remove snips-asr
sudo apt-get install snips-asr-google
sudo systemctl restart snips-*
Rejestrujemy się na https://console.cloud.google.com
Tworzymy nowy projekt, z menu bocznego wybieramy Interfejsy API i usługi. Wyszukujemy i włączamy Cloud Speech API. Przechodzimy do zakładki Dane logowania i klikamy Utwórz dane logowania -> Klucz konta usługi, jako typ wybieramy JSON. Po kliknięciu przycisku Utwórz powinniśmy otrzymać plik JSON, który zapisujemy pod nazwą googlecredentials.json i umieszczamy w katalogu /usr/share/snips
UWAGA! Do korzystania z tej usługi Google wymaga podania danych karty płatniczej. W pakiecie darmowym Cloud Speech API otrzymujemy 60 minut/miesiąc przy naliczaniu 15-sekundowym. Wszystko powyżej naliczane jest wg cennika https://cloud.google.com/speech-to-text/pricing?hl=pl
Aktualne informacje o stanie konta można znaleźć pod adresem https://console.cloud.google.com/billing
Mowa w języku polskim (TTS):
Klonujemy repozytorium https://github.com/ChrisB85/snips_custom_tts do dowolnego katalogu na naszym RPI. Nadajemy plikowi snipsGoogle.sh uprawnienia do wykonywania (755, właściciel pi). W pliku config.sh wskazujemy katalog dla plików cache pamiętając o uprawnieniach (u mnie akurat 777).
W pliku /etc/snips.toml dodajemy na końcu
provider = "customtts"
customtts = { command = ["pełna_ścieżka_do_pliku_snipsGoogle.sh", "%%OUTPUT_FILE%%", "pl", "%%TEXT%%"] }
3. Integracja z protokołem MQTT: Wyszukujemy i dodajemy w konsoli Snips do naszego modelu asystenta aplikację o nazwie UniDeviceControl, której zadaniem jest przekształcić nasze polecenia na publikacje MQTT. Aby ją dostosować do własnych potrzeb, najlepiej ją "sforkować" - będziemy mogli wtedy dodać własne polecenia i urządzenia.
Aplikacja UniDeviceControl obsługuje "na dzień dobry" następujące intencje (można to rozumieć jako rozpoznane przez asystenta polecenia, które wydajemy):
TurnOff - wyłączanie urządzenia (Hej Snips, wyłącz [urządzenie])
TurnOn - włączanie urządzenia (Hej Snips, włącz [urządzenie])
Unmute - przywracanie dźwięku (Hej Snips, przywróć dźwięk [urządzenie])
Mute - wyciszanie (Hej Snips, wycisz [urządzenie])
Pause - pauza w odtwarzaniu (Hej Snips, wstrzymaj [urządzenie])
Stop - zatrzymanie odtwarzania (Hej Snips, zatrzymaj [urządzenie])
Play - rozpoczęcie odtwarzania (Hej Snips, odtwarzaj [urządzenie])
Dodatkowo jest jeszcze intencja pomocnicza o nazwie DeviceControlAnswer używana w momencie, gdy asystent nie do końca nas zrozumie. Przykładowo powiemy:
- Hej Snips, włącz komputer.
Jeśli Snips nie zrozumie słowa komputer, zada pytanie:
- Co chcesz włączyć?
Odpowiadając "komputer" intencja zamiast TurnOn przyjmie nazwę DeviceControlAnswer.
4. Wdrażanie asystenta z konsoli na RPI:
Model asystenta instalujemy na RPI zgodnie z krokiem 5 z instrukcji z punktu 1. Podczas wdrażania asystenta na Raspberry Pi powinno zostać pobrane repozytorium https://github.com/ChrisB85/snips_mqtt
Możliwe, że pojawi się również komunikat o konieczności nadania plikowi /var/lib/snips/skills/snips_mqttaction-snips-mqtt.py uprawnień do wykonywania. U mnie jest to 755.
Na końcu instalacji kreator zapyta nas o dane dostępowe do MQTT (można je ustawić w pliku /etc/snips.toml) - domyślnie nie ma żadnego loginu i hasła, więc wystarczy wciskać ENTER.
WAŻNE! Po każdym wdrożeniu asystenta na RPI, należy w pliku /usr/share/snips/assistant/assistant.json zmienić kod języka ("language") z "en" na "pl" i zrestartować usługi Snipsa poleceniem sudo systemctl restart 'snips-*'
UWAGA! Podczas wdrażania asystenta skrypt instalacyjny "przetwarza" plik configuration.yaml m.in. wyrzucając komentarze i (przynajmniej w moim przypadku) nadpisuje linię z "intent_scripts:". Co prawda przed całą operacją robi również kopię tego pliku, ale jeśli nie chcemy aby cokolwiek w nim "mieszał", najlepiej zmienić właściciela na root, odebrać prawa do zapisu i umożliwić jedynie odczyt.
4. Integracja z Home Assistant:
Dokumentacja komponentu Snips dla HA znajduje się pod adresem https://www.home-assistant.io/components/snips/
W pliku konfiguracyjnym HA (configuration.yaml) dopisujemy "snips:" i restartujemy HA.
Domyślnie Snips integruje się z HA poprzez tzw intent scripts, natomiast aplikacja UniDeviceControl umożliwia przekształcenie intencji na publikacje MQTT o strukturze:
[satelita]/[temat]/[wartość]
gdzie:
[satelita] - inaczej site_id; domyślnie default. Snips umożliwia obsługę wielu stacji "nasłuchowych" (dla wielu pomieszczeń). Dokładniej jest to opisane na stronie https://docs.snips.ai/articles/raspberrypi/satellites
[temat] - intencja/wydane polecenie np. TurnOn
[wartość] - nazwa urządzenia wg. aplikacji UniDeviceControl. UWAGA! W publikacji będą użyte wyłącznie małe litery!
Przykładowo wydając polecenie "Hej Snips, włącz komputer", wystawiona publikacja będzie miała postać:
default/TurnOn/computer
zatem w Home Assistant możemy ustawić następujący wyzwalacz:
Typ wyzwalacza:
MQTT
Temat:
default/TurnOn
Payload:
computer
Komunikaty zwrotne (czyli to co Snips odpowie), można wywołać poprzez usługę snips.say z poziomu HA. Przykładowo możemy wywołać usługę z danymi:
{
"site_id": "default",
"text": "Włączam komputer"
}
Dzięki temu z satelity "default" usłyszymy to, co podaliśmy jako argument "text".
Pomocne polecenia:
sam watch - podgląd zdarzeń Snips (rozpoznawanie mowy, intencji itp.)
sam status - status usług Snips; oczywiście po deinstalacji pakietu snips-asr normalnym będzie, że usługa o tej samej nazwie nie będzie działać.
sam setup audio - konfiguracja dźwięku (mikrofonu i głośników)
sam update-assistant - aktualizacja modelu asystenta (pobieranie modelu z konsoli Snips na RPI)
sudo journalctl -u snips-skill-server - podgląd dziennika akcji
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment