Hej
Mam kilka nurtujących pytań.
@jolka bardzo proszę w miarę możliwości o odpowiedź na poniższe zagadnienia.
Aktualnie pracujecie nad aplikacjami mobilnymi, może któreś z poniższych opcji jest możliwa do wprowadzenia bez większego wysiłku przy aktualnych kompilacjach.
Nie jestem programistą i może niektóre z tych rzeczy są abstrakcyjne,
a niektóre możliwe, że z niewiedzy w ogóle źle rozumiem
1
Czy jest możliwość aktywowania zdalnie w apliakcji mikrofonu (emulator przycisku)?
Rozumiem, że jest to guzik, if naciśniesz
to włacz mikrofon, tak samo hotword jak wykryje to wlacz mikrofon, czy można zrobić dodatkowego trigera, komende, np. tak jak mogę “mobile_ais_dom_4534436” dać usługę notify to on jest wyzwalaczem?
2
Czy jest możliwość aby w jakiś sposób atrybutować powiedziane komendy przez aplikacje X i Y.
Mówie do jednego telefonu to komenda ma atrybut mobile_ais_dom_453443 a do drugiego mobile_ais_dom_99999.
Można by zrobić wtedy w intencjach, że jak mówię do tabletu X to samo zapal światło
wystarczy, bo wiem z jakiego pokoju mówię
W momencie przełączenia guzika w aplikacji, mogę wyciągnąć jaki użytkownik to zrobił data.new_state.context.user_id
i żeby było tak samo w przypadku głosowej komendy.
W Dzienniku widzę, kto przełaczył, ale jak komenda jest głosowa to nie widać.
Tak samo data.new_state.context.user_id:null
Żeby np. można było w intencjach zrobić akcję wysłania “komendy” przez mqtt z ID użytkownika/ urządzenia
3
Czy jest możliwe dodanie “sensora”, w momencie włączenia mikrofonu, czy to przez guzik, czy też hotword, jest sobie encja, która zmienia stan np. true
, po deaktywacji false
Zastosowanie: w przypadku włączenia mikrofonu, ściszam telewizor żeby lepiej zrozumiał to co mówie. Tutaj też istotne jest który mikrofon w jakiej aplikacji.
4
Czy jest jakaś możliwość wyłączenia agenta AIS,
a żeby został jedynie Conversation z własnymi sentencjami.
Tak jak mogę wyłaczyć agenta Google Home odinstalowując integracje google home
Chodzi o to żeby w razie czego powiedział nie rozumiem
a nie sam wymyślał Włączam parowanie urządzeń zigbee
5
Jak dobrze zrozumiałem, wrzucacie do /res/raw
swój wakeword i kompilujecie.
Czy jest możliwość aby aplikacja miała dynamiczne pobranie tego keyworda?
Robię sobie swoje słowo “hej banana” pobieram plik ppn i wrzucam do jakiegoś folderu w androidzie, albo w aplikacji?
6
Czy zrobienie polskiego hotword Jolka
to jakaś duża kasa w picavoice?
Na stronie mają info, że customowo robią takie rzeczy,
czy może po prostu nie chcieli zrobić polskiego?
7
Podłączyłem ps eye do bramki oraz komputera, postawiłem oba mikrofony dosłownie obok siebie.
Wybrałem “alexa” na nasłuch i maksymalną czułość i włączyłem konsole picovoice na kompie.
Mówiłem wolno, szybko, głośno cicho, blisko daleko…
Zdarzało się, że w konsoli łapało, a w bramce nie… nigdy na odwrót.
Czy są jakieś racjonalne powody dlaczego tak może się dziać? Co może mieć na to wpływ? Stara wersja? Mikrofony również zamieniłem, żeby wyeliminować tą zmienną.
8
Czy jest coś na horyzoncie?
Wydaje mi się, że problem jest tylko w hot word,
bo stt działa całkiem dobrze (to googlowe, czy to Rhino?)
Niby picavoice robi przez deep learning, tylko w którym momencie? Jak sobie sami słowa zrobią ze swoich sampli?
Ja to rozumiem tak, że stale jak ja gadam to się uczy i zawęża pod mój głos.
To tak żeby każdy sam mógł w warunkach swojego mikrofonu, tonu głosu, echa itp wyćwiczyć tego hotworda, nawet jeżeli miało by to być gwizdnięcie I taki deep learning byłby nalepszy.
Zdarzały się złe interpretacje więc podkreślę,
nic nie żądam, nic nie wymagam, tylko grzecznie pytam.
Wydaje mi się, że są tu również inne osoby, które się zainteresują tematem.
EDIT
9
Jeszcze jedno, jak moge ustawić intencje żeby jak mówię do mikrofonu to nie odpowiada mi do wszystkich urządzeń tylko tego gdzie mówie.