Du har ingen artikler på din læseliste

Hvis du ser en artikel, du gerne vil læse lidt senere, kan du klikke på dette ikon

Så bliver artiklen føjet til din læseliste, som du altid kan finde her, så du kan læse videre hvor du vil og når du vil.

Læs nu
Du har ingen artikler på din læseliste
Artiklen er føjet til din læseliste Du har ulæste artikler på din læseliste

Næste:
Næste:
Google
Foto: Google

FINGERNEMT. Project Soli fra Google bruger radar til at opfange bevægelser udenfor f.eks. et smartur og omsætte dem til kommandoer.

Forbrugerelektronik
Læs artiklen senere Gemt (klik for at fjerne) Læst

I fremtiden kan du styre smart-uret ved at trykke i den blå luft

Både Google og Samsung er klar med nye teknologier, der udvider brugerfladen på smarture til resten af armen og videre endnu.

Forbrugerelektronik
Læs artiklen senere Gemt (klik for at fjerne) Læst

Smarture kan utroligt meget, men der er meget lidt skærmplads at gøre det på. Både Google og Samsung har dog for nylig præsenteret løsninger til at udvide smartures brugerflader uden at gøre skærmene større.

Det kommer oven i løsninger fra forskningsmiljøet, der ser spændende ud. I alle tilfældene er der dog tale om gestikulationer og håndbevægelser snarere end mere hardware.

Da kroppen blev en controller Det er snart 10 år siden, Nintendo Wii udkom og ændrede de flestes syn på, hvordan man kommunikerer med computerudstyr. Gestikulation og touchscreens havde længe været på banen, men det var først med Wii, at menigmand forstod, at det var nye tider. Med Wii’s trådløse controllere i hænderne kunne man stå midt ude på gulvet og bokse, spille golf, tennis eller myrde aliens.

Ikke noget med at sidde i sofaen med en controller, det krævede en vis fingerbehændighed at styre. Gestikulation som interaktionsmetode var kommet ud af nørd-domænet og ind i mainstreamen. Siden kom Kinect-modulet til Xbox 360, hvor man kunne gøre det samme som på Wii – men nu helt uden controllere.

Det var i 2010, hvor vi allerede var blevet vant til at knibe, stryge og gøre alle mulige andre ting på vores smartphones’ touch-skærme. Mus og tastatur så mere og mere overflødige ud. Udviklingen er dog ikke stået stille i de sidste seks år. Tværtimod. I de seneste par måneder har vi fået nye teknologier at se, der gør fagter og gestikulation endnu mere brugbare i vores virkelighed. Især på vores håndled.

Radar i stedet for kamera

Google præsenterede således under deres I/O-konference i sidste måned Project Soli, et af projekterne fra deres særlige ATAP-afdeling (Advanced Technologies And Projects), hvor man tænker meget langt ud af boksen. Soli er et system, der kan opfange ens bevægelser og omsætte dem til data indenfor et meget lille fysisk område og med høj præcision.

Indtil nu har man primært brugt kameraer, gyroskoper og accelerometre, når man skulle løse denne opgave. Wii’ens controller (også kendt som Wiimote) kunne sanse dens position i det fysiske rum og sende disse informationer til Wii-konsollen. Det er det samme princip, der er gældende i PlayStation Move, der er Sonys svar på Wiimote.

LÆS OGSÅ

Med Xbox Kinect brugte man i stedet to kameraer. Ligesom med vores øjne, kan man bruge to visuelle signaler til at måle dybde med, og det gør Kinect-modulet i stand til at se, hvor du og dine arme og hænder befinder sig i rummet. Dermed forsvinder behovet for en controller. Det er det samme princip, der driver det lille Leap Motion-modul, der bl.a. kan erstatte en touchskærm på en pc med gestikulation foran skærmen.

Project Soli, derimod, bruger samme princip som radar. Med andre ord bruger man radiobølger til at måle, hvor i rummet dine arme, hænder og fingre befinder sig. Ifølge Google er det langt mere præcist og kræver slet ikke lige så meget plads som kameraerne i Kinect og Leap Motion. Og det gør det muligt at bygge teknologien ind i smarture.

Overarmen er en trackpad
Google viste allerede Project Soli frem ved I/O-konferencen i 2015. I år havde Google dog sammen med LG lavet et smartur, hvor man kunne bevæge fingrene over eller ved siden af uret for at styre, hvad der skete på skærmen. Det gør det noget nemmere at navigere rundt på den lille skærm. Du kan se, hvordan det virker her - og hvad man ellers kan bruge teknologien til her.

Google er dog ikke alene om at prøve at gøre det nemmere at navigere på smarture. Det amerikanske patentkontor USPTO offentliggjorde tidligt i maj måned en patentansøgning fra Samsung, hvor de beskriver en lille projektor/sensor, der kan bygges ind i smarture.

Annonce

Artiklen fortsætter efter annoncen

Annonce

Idéen er, at uret projicerer et billede ud på din håndryg eller længere op på armen, som så fungerer som en slags touchskærm. Foreløbig bliver det næppe så skarpt et billede, at man kan læse længere tekster på den måde, men man kan snildt scrolle igennem sine emails, kontakter eller kigge i kalenderen, f.eks.

Der er dog kun tale om en patentansøgning, ikke egentlig, eksisterende teknologi. Men forskere fra Carnegie-Mellon-universitetet i USA præsenterede nogenlunde samtidig med Samsungs patentansøgning en ny teknologi, de kalder for SkinTrack. Her kombinerer man sensorer i uret med en ring på en finger på ens modsatte hånd.

Og pludselig er ens overarm eller håndryg en trackpad á la den, der sidder på en bærbar computer. Men i stedet for at styre en pil eller en hånd på computerskærmen, styrer man altså funktionerne på ens smartur. Du kan se en demonstration af teknologien her.

Kroppen er altså slet ikke færdig med at blive udviklet som erstatning for mus og tastatur. Slet ikke.

Læs mere:

Annonce

For abonnenter

Annonce

Podcasts

Forsiden