Razer er kjent for å ofte realisere sine «prosjekter», og vi kan bare håpe at det også gjelder Project Motoko.

Project Motoko er «The future of wearable AI», og består av et hodesett som fungerer via en blanding av AI og AR, i form av et hodesett.

Det leveres med «doble FPV»-kameraer, noe som betyr at det dekker hele førstepersonsutsikten, og videreformidler data i sanntid, for det meste fra droner, for å skape en «være der»-opplevelse. Dette er ment å fokusere AI-plattformen på det brukeren kan se og oppleve, og ignorere alle irrelevante data og innspill. Bruken av to kameraer gir også mulighet for dybdeoppfatning og presis gjenkjenning av plasseringen i rommet og i forhold til brukeren. Razer hevder at kameraene også gjør bruk av et utvidet synsfelt.

Lydmessig er det tatt hensyn til både nær- og langdistanselyd for å fange opp ikke bare stemmen din, men også lyd og tale fra nesten alt som befinner seg innenfor synsfeltet til FPV-kameraene.

Hele poenget er interaksjon mellom kamera, lydinngang og det fysiske rommet og objektene, og Razer sier rett ut at det er en «personlig heltids AI-assistent». Razers produktpresentasjon integrerer chat og livestreaming, noe som gir inntrykk av at det er et produkt for innholdsskapere, men den demonstrerer også hvordan det kan brukes til sosiale interaksjoner og trening, noe vi synes er litt mer iscenesatt og gir noen problemer med personvernet til de som blir filmet.

Project Motoko støtter for øyeblikket de mest brukte AI-plattformene, og bruker til og med maskinlæring som brukes til, vel, «å gi robotteam verdifulle data for å trene humanoider for mer naturlig persepsjon, bevegelse og beslutningstaking, noe som kan tyde på at Razer samler inn enorme mengder data for … noe humanoid.

Razer har avslørt Project MotokoRazer