Ankündigung

Einklappen
Keine Ankündigung bisher.

Projekt Jasper

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Projekt Jasper

    Hi Jungs,

    hier ein interessantes Projekt für zwischendurch und vielleicht zur Verknüpfung mit openhab: Jasper | Documentation

    Jasper ist eine immer-an Sprachsteuerung mit Sprachaktivierung.

    Ich werde mir das definitiv mal anschauen - zumal eh ein RasPi rumliegt

    Grüße
    Sascha

    #2
    Hi,

    das wäre die perfekte Ergänzung zu OpenHab.

    Wenn ich das richtig in deren Doku verstehe, dann benötigt man:
    - Ein neues Standard Modul (Konfiguration)
    - Text des Kommandos
    - Reakion auf Kommando
    - Zum Testen ein ein einfachen REST API Aufruf für OPENHAB --> wie geht das in python

    Ich echten Betrieb sollten die Kommandos dynamisch aus der Sitemap / den Items aufgebaut werden. Dazu müsste der Typ eines Items und seine Bezeichnung analysiert werden.

    Das Wort zum Reagieren auf Kommandos würde ich mir einstellbar wünschen.

    Gibt es hier noch jemand der mithelfen kann, dieses Miniprojekt umzusetzen?

    Benötigte Hardware:
    - Raspberry Pi Model B
    - Akiro Kinobo USB Microphone
    - 4GB SD Card
    - Airlink Mini-USB Adapter
    - Micro-USB Cable
    - Ethernet Cable
    - USB Wall Charging Adapter
    - Speakers that work through the Raspberry Pi audio jack (probably need to be self-powered)

    Erfahrung:
    - Python
    - REST API Openhab

    Sascha.

    Kommentar


      #3
      Ich werde es definitiv mal ausprobieren. Schon allein weil es nicht allzu kompliziert aussieht.

      Wäre also dabei.

      EDIT: Eben mal das Micro bestellt. Den Rest habe ich noch da.

      Gruß Moe

      Kommentar


        #4
        Ich versuche mich gerade mal daran

        EDIT:
        So, Jasper ist installiert und mit einer normalen (billigen) USB-Soundkarte und dem Einmessmikro meines Onkyo funktioniert das so lala.
        Die Erkennung ist auf Kontextebene noch ok, auf Wortebene miserabel - mag aber auch am Mikro liegen und dem Gebäude (offene Bauweise, Hall) liegen.

        Mein Fazit: Zu gebrauchen, verbesserungswürdig aber definitiv Arbeit wert.

        Kommentar


          #5
          Prima,

          ohne Kenntnisse von Python / der Hardware kann ich aktuell noch nichts beitragen.

          @kuschelganxta: Kannst du in Python :
          - in der Helper Klasse (app_utils.py) eine Möglichkeit zum Aufruf einer URL einbauen - in etwa so:

          Code:
          def sendOpenHABcommand(command):
              """
                  Sends a command to openhab. Returns OpenHAB response
          
                  Arguments:
                  command -- REST API command
              """
              OpenHAB = "http://user:pass@192.168.1.1/API"
              URL        = OpenHAB + command
              response = urllib2.urlopen(URL)
              return response.read()
          - den Aufruf der REST API von Openhab testen?

          Sascha.

          Kommentar


            #6
            So auch ich habe jetzt mal einen Eindruck gewonnen.

            Ich kann kuschelganxta Meinung nur beipflichten.

            Sätze werden besser verstanden als Wörter. Aber das ganze ist aktuell noch nicht wirklich nutzbar. Teilweise wird schon das Aktivierungswort "Jasper" nicht richtig erkannt.

            Ich könnte mir vorstellen das es Probleme bei der richtigen Aussprache gibt.
            Für Sphinx gibt es ja auch die Deutsch Unterstützung. Eventuell wäre das einer der nächsten Schritte ehe man sich an der API versucht.

            Anzumerken wäre noch das man wissen sollte was mann will. Denn die Zeit zum sprechen ist sehr gering wie ich finde. Aber dies kann man sicher in der Software ändern.

            Gruß Moe

            Kommentar


              #7
              Hallo,

              hat sich schon einer weiter an Jasper versucht. Ich wäre sehr an einer "Immer-Zuhören" Lösung interessiert, da ich nicht immer mein Android zur Hand habe. Aber die bisherigen Einschätzungen sind ja eher ernüchternd, was für mich bedeutet, ich kann mir die Arbeit sparen.
              Gibt es mittlerweile vielleicht schon positive Ergebnisse/Erkenntnisse?

              Viele Grüße
              Michael

              Kommentar


                #8
                Ich möchte euch nicht entmutigen, aber ich selbst habe Jasper auch vor einiger Zeit getestet mit ähnlich (schlechten) Ergebnissen. Vieles hängt bereits von der Hardware, also z.B. dem Mikrofon ab. Das beste was ich im Bereich Voice Commands bisher gesehen habe, war "CastleOS":

                https://www.youtube.com/watch?v=_NzVyJHk5qw

                Dort werden die Kinect-Sensoren eingesetzt, welche wohl eine grosse Reichweite und gute Genauigkeit aufweisen.

                Kommentar


                  #9
                  Jedoch sollte die Software wissen , wo das Microphone steht.

                  Sonst funktionieren Kommandos wie: "Licht an" nicht

                  Kommentar


                    #10
                    Zitat von milymat Beitrag anzeigen
                    Jedoch sollte die Software wissen , wo das Microphone steht. Sonst funktionieren Kommandos wie: "Licht an" nicht
                    Exakt. Leider ist die Reichweite von dem auf der Jasper-Seite abgebildeten Stabmikrofon viel zu niedrig. Genauso gefallen mir Lösungen nicht, die ein Handy mit Spracherkennung voraussetzen - wenn schon per Sprache, dann auch "bequem" ohne etwas in der Hand halten zu müssen Die Kinect-Sensoren haben den Vorteil, das neben einer Vielzahl an Mikrofonen auch Kameras verbaut sind, so dass man mit beiden Mitteln kombiniert feststellen kann, in welchem Raum sich der Mensch derzeit befindet (natürlich benötigt man immer noch pro Raum mindestens eine Kinect).

                    Nachteil der Geschichte: Das ganze läuft mit der jeweiligen API nur unter Windows. Allerdings gibt es sogenannte "Compute Sticks", also sehr kleine Lösungen um ein Windows-System aufzusetzen und daran dann eine Kinect anzuschliessen:

                    Solutions Directory | Intel® Internet of Things Solutions Alliance

                    Danach fehlt "nur" noch eine Schnittstelle zu openHAB

                    Kommentar

                    Lädt...
                    X