MarsCat – Die KI-Katze aus Raspberry Pi – Elephant Robotics

MarsCat – Die KI-Katze aus Raspberry Pi

MarsCat – Die KI-Katze aus Raspberry Pi

Einführung

ist eine Reihe kleiner Single-Board-Computer (SBCs), die im Vereinigten Königreich von der Raspberry Pi Foundation in Zusammenarbeit mit Broadcom entwickelt wurden.

Das Raspberry-Pi-Projekt zielte ursprünglich darauf ab, den Informatik-Grundlagenunterricht an Schulen und in Entwicklungsländern zu fördern.

Das ursprüngliche Modell erfreute sich größerer Beliebtheit als erwartet und wurde auch außerhalb seines Zielmarktes für Anwendungen wie beispielsweise die Robotik verkauft.

MarsCat , eine KI-Roboterkatze von Elephant Robotics , basiert auf einem Raspberry PI 3 B (WLAN)-Quad-Core ARM Cortex-A53 Prozessor mit 1 GB ARM. Die API umfasst Typ C (Datenübertragung), DC-Buchse (Ladekabelschnittstelle) und HDMI. Mehr erfahren

Basierend auf dem Open-Source ist Marscat in der Lage, Sekundärentwicklungen entsprechend den Neuheitsideen der Geeks durchzuführen.

Nachfolgend finden Sie das Tutorial und die Python-Skripte für weitere Entwicklungen auf Basis eines Raspberry Pi, der die Grundlage für die MarsCat-Forschung bildet.

Vorbereitungen

  • Monitor, Maus, Tastatur anschließen
  • Verbindungen: WLAN, SSH, VNC usw.

Konto: pi Passwort: raspberry

  • Autostart-Funktion vor der Programmierung deaktivieren:
 cd ~ /marsai
./ tools /stop-systemd-services.sh
./ tools/disable-systemd-services.sh
  • Aktivieren Sie die Autostart-Funktion:
 cd ~ /marsai 
./tools /enable-systemd-services.sh
./tools/start-systemd-services.sh

API herunterladen
 cd ~
git clone https: //gi thub.com /elephantrobotics/m arscatAPI.git
cd marscatAPI
Basic Movements
 # file : move/movement.py
# See this file for more functions

import movement

mv = movement.MoveMent()
mv.set_walk( step = 2 , speed = 0.7 )
...


Berührungstest

 # file: sensor/touch.py

Berührung importieren

tc = berühren.Berühren()
tc.test_touch()

Augen demonstrieren

 # file: eye/eyedisplay.py

import eyedisplay

eyes = eyedisplay. EyeDisplay()
eyes.display _eye( ball_num = 1, lid_num = 1, ball_type = ' eye_ball ', dx = 0, dy = 0)

"" "
args:
ball_num --> int:
1~10
# Eyeball size

lid_num --> int:
1 bis 10
# Augenlidgröße
ball_type --> str:
[Augapfel, Ball, Gesicht, Flip, Hitze, Umarmung, Teaser, Stimme,
niedriger_Strom, Laden, Schwindel, Bowlorhungry, Schlaf
hohe_Temperatur, hw_Fehler]
# Um auszuwählen, aus welchem Ordner das Bild stammt
# Auge/Augapfel/
dx,dy --> int:
# Koordinaten des Augapfels
# (0, 0) in der Mitte
" ""

Ton abspielen
 # file: sound/catsound.py

import catsound

s = catsound.CatSound()
s.meow()

Bilderkennung
 # file: vision/vision_base.py

import vision_base

vision = vision_base.Vision()
vision.test()


Es kann Gesichter, blaue Bälle, passende katzenfreundliche Stäbchen und passende QR-Codes erkennen.
 Spracherkennung
 # file: voice/voice_base.py

import voice_base
voice_base.test_voice()


Wählen Sie die Sprache für die Spracherkennung
 # file: voice/voice_base.py 28 
def speak_config (selbst):
Sprache = "Chinesisch"
Sprachaktivierung
Weckworte:
 # file : voice/voice_base. py 142 row

ACTIVATION_WORDS = [
'HI MARSCAT' , 'MARSCAT' , 'MASSCAT' , 'MASKCAT' , 'MARS' ,
'ASSCAT' , 'MASS'
]

# Datei : voice/voice_base.py 152 Zeile
wenn ff:
Erfolgreich aufwachen und in den Hörmodus wechseln

Die Dateien in voice/corpus/*.dic enthalten alle erkannten Wörter in drei Sprachen.

Testprozess

 

Hinterlassen Sie einen Kommentar

Bitte beachten Sie, dass Kommentare vor der Veröffentlichung freigegeben werden müssen

Suchen Sie auf unserer Seite

Einkaufswagen