Główna » UI / UX » 8 Interfejs użytkownika nowej generacji, który jest (prawie) tutaj

    8 Interfejs użytkownika nowej generacji, który jest (prawie) tutaj

    Kiedy mówimy o interfejsie użytkownika (UI) w informatyce, mamy na myśli sposób, w jaki program lub system komputerowy przedstawia się użytkownikowi, zazwyczaj za pomocą grafiki, tekstu i dźwięku. Wszyscy znamy typowy system operacyjny Windows i Apple, w którym korzystamy z ikon na naszym pulpicie za pomocą kursorów myszy. Wcześniej mieliśmy wiersz polecenia oparty na tekście w starym stylu.

    Przejście z tekstu na grafikę było dużym krokiem zainicjowanym przez założyciela Apple'a, Steve'a Jobsa, z jego charakterystycznym systemem operacyjnym Macintosh w 1984 roku. głos (np. Siri), a nawet gesty (np. Microsoft Kinect). Są jednak w większości na początkowym etapie rozwoju.

    Niemniej jednak dają nam wskazówki, jak może wyglądać kolejna rewolucja interfejsu użytkownika. Ciekawy? Tu są 8 kluczowych cech interfejsu użytkownika nowej generacji:

    1. Interfejsy gestów

    Film science fiction z 2002 r. „Raport mniejszości” przedstawiał przyszłość, w której interakcje z systemami komputerowymi odbywają się głównie za pomocą gestów. Tom Cruise, główny bohater, ubrany w parę futurystycznych rękawiczek, wykonuje różne gesty rękami, manipulując obrazami, filmami, arkuszami danych w swoim systemie komputerowym.

    Dziesięć lat temu wydawanie takiego interfejsu użytkownika, w którym ruchy przestrzenne są tak płynnie wykrywane, może wydawać się nieco naciągane. Dzisiaj, wraz z pojawieniem się urządzeń wykrywających ruch, takich jak Wii Remote w 2006 r., Kinect i PlayStation Move w 2010 r., Interfejsy użytkownika przyszłości mogą właśnie zmierzać w tym kierunku.

    W rozpoznawaniu gestów dane wejściowe mają postać dłoni lub dowolnego innego ruchu ciała w celu wykonywania zadań obliczeniowych, które do tej pory są nadal wprowadzane za pomocą urządzenia, ekranu dotykowego lub głosu. The dodanie osi Z do naszego istniejącego dwuwymiarowego interfejsu użytkownika niewątpliwie poprawi doświadczenie interakcji człowiek-komputer. Wyobraź sobie, ile jeszcze funkcji można przypisać do naszych ruchów ciała.

    Cóż, oto wideo demonstracyjne g-speak, prototypu interfejsu komputerowego opisanego w Raporcie mniejszości, zaprojektowanym przez Johna Underkofflera, który był w rzeczywistości doradcą naukowym filmu. Zobacz, jak porusza się po tysiącach zdjęć w płaszczyźnie 3D za pomocą gestów dłoni i współpracuj z innymi „gestami rąk” podczas zadań zespołowych. Podekscytowany? Underkoffler uważa, że ​​taki interfejs będzie dostępny komercyjnie w ciągu najbliższych pięciu lat.

    2. Interfejs mózg-komputer

    Nasz mózg generuje wszelkiego rodzaju sygnały elektryczne z naszymi myślami, tak bardzo, że każda konkretna myśl ma swoją własną falę mózgową wzór. Te unikalne sygnały elektryczne mogą być mapowane w celu wykonywania określonych poleceń aby myślenie mogło faktycznie wykonać polecenie set.

    W zestawie neuronowym EPOC stworzonym przez Tan Le, współzałożyciela i prezesa Emotiv Lifescience, użytkownicy muszą futurystyczny zestaw słuchawkowy, który wykrywa fale mózgowe generowane przez ich myśli.

    Jak widać z tego wideo demonstracyjnego, polecenie wykonane przez myśl jest dość prymitywne (tj. Pociągnięcie kostki w kierunku użytkownika), a mimo to wykrycie wydaje się napotykać pewne trudności. Wygląda na to, że odpowiedni interfejs użytkownika może trochę potrwać.

    W każdym razie wyobraź sobie (daleką) przyszłość, w której można obsługiwać systemy komputerowe samodzielnie. Od koncepcji „inteligentnego domu”, w którym można włączyć lub wyłączyć światła bez konieczności wychodzenia z łóżka rano, do idei zanurzenia się w niesamowitych doznaniach w grach, takich jak reakcje na swój nastrój (poprzez fale mózgowe), potencjał takiego niesamowitego interfejsu użytkownika jest praktycznie nieograniczony.

    3. Elastyczny wyświetlacz OLED

    Jeśli ekrany dotykowe na smartfonach są sztywne i wciąż nie reagują wystarczająco na twoje polecenia, to prawdopodobnie będziesz pierwszy w kolejce do wypróbowania elastycznych wyświetlaczy OLED (organiczna dioda emitująca światło). OLED to półprzewodnik organiczny, który może nadal wyświetlać światło nawet po zwinięciu lub rozciągnięciu. Przyklej go na giętkim podłożu z tworzywa sztucznego, a otrzymasz nowy i mniej sztywny ekran smartfona.

    Co więcej, te nowe ekrany można skręcać, wyginać lub składać w celu współdziałania z systemem komputerowym wewnątrz. Zegnij telefon, aby powiększyć i pomniejszyć, przekręć róg, aby zwiększyć głośność, przekręć drugi róg, aby go obrócić, przekręć obie strony, aby przewijać zdjęcia i więcej.

    Tak elastyczny interfejs użytkownika pozwala nam naturalnie współpracuje ze smartfonem nawet wtedy, gdy nasze ręce są zbyt zajęte, aby korzystać z ekranu dotykowego. Może to być odpowiedź na wrażliwość (lub jej brak) ekranów smartfonów na palce w rękawiczkach lub gdy palce są zbyt duże, aby dosięgnąć właściwych przycisków. Z tym interfejsem wszystko, co musisz zrobić, to ścisnąć telefon dłonią, aby odebrać połączenie.

    4. Augmented Reality (AR)

    Doświadczamy już AR na niektórych naszych aplikacjach na smartfony, takich jak Wikitude, ale jest to prawie na podstawowych etapach rozwoju. AR zyskuje największy wzrost świadomości dzięki nadchodzącej Google Project Glass, parze noszonych okularów, które pozwalają na jedno zobacz wirtualne rozszerzenia rzeczywistości, z którą możesz wchodzić w interakcje. Oto niesamowite demo tego, czego się spodziewać.

    AR może być na czymkolwiek innym niż okulary, o ile urządzenie jest w stanie współdziałać ze środowiskiem rzeczywistym w czasie rzeczywistym. Wyobraź sobie przezroczyste urządzenie, które możesz trzymać nad obiektami, budynkami i otoczeniem, aby uzyskać przydatne informacje. Na przykład, gdy natkniesz się na obcy szyld, możesz przejrzeć szklane urządzenie, aby zobaczyć je przetłumaczone dla łatwego czytania.

    AR może również wykorzystywać środowisko naturalne do tworzenia mobilnych interfejsów użytkownika, z którymi można wchodzić w interakcje, wyświetlając ekrany na ścianach, a nawet własne ręce.

    Sprawdź, jak to się robi z SixthSense, prototypem poręcznego interfejsu gestowego opracowanego przez MIT, który wykorzystuje AR.

    5. Interfejs użytkownika głosowego (VUI)

    Od czasu prezentacji wideo „Put That There” autorstwa Chrisa Schmandta w 1979 roku, rozpoznawanie głosu nie spotkało się jeszcze z rewolucyjnym rodzajem sukcesu. Najnowszym szumem nad VUI musi być Siri, aplikacja do osobistego asystenta, która jest wbudowana w system iOS firmy Apple. Wykorzystuje interfejs użytkownika w języku naturalnym do funkcji rozpoznawania głosu do wykonywania zadań wyłącznie na urządzeniach Apple.

    Jednak widzisz to także jako wsparcie w innych technologiach interfejsu użytkownika, takich jak Google Glass. Szkło działa zasadniczo jak smartfon, tylko że nie musisz go trzymać i oddziaływać z nim palcami. Zamiast tego przylega do Ciebie jako okulary i odbiera Twoje polecenia za pomocą sterowania głosem.

    Jedyne, czego teraz brakuje w VUI, to brak niezawodność rozpoznawania tego, co mówisz. Idealnie to i zostanie włączone do interfejsów użytkownika przyszłości. W tempie, w jakim możliwości smartfonów rozwijają się i rozwijają, jest tylko kwestią czasu, zanim VUI zajmie centralną pozycję jako podstawowa forma interakcji człowiek-komputer dla każdego systemu komputerowego.

    6. Materialny interfejs użytkownika (TUI)

    Wyobraź sobie, że masz system komputerowy łączy środowisko fizyczne z sferą cyfrową, aby umożliwić rozpoznawanie obiektów świata rzeczywistego. W Microsoft Pixelsense (wcześniej znany jako Surface) interaktywna powierzchnia obliczeniowa może rozpoznawać i identyfikować obiekty, które są umieszczane na ekranie.

    W Microsoft Surface 1.0, światło z obiektów odbija się od wielu kamer na podczerwień. Pozwala to na system uchwycić i zareagować na przedmioty umieszczone na ekranie.

    W zaawansowanej wersji technologii (Samsung SUR40 z Microsoft PixelSense) ekran zawiera czujniki zamiast kamer do wykrywania tego, co dotyka ekranu. Na tej powierzchni można tworzyć cyfrowe obrazy z pędzlami opartymi na danych wejściowych rzeczywistego pędzla.

    System też jest zaprogramowane do rozpoznawania rozmiarów i kształtów oraz interakcji z osadzonymi tagami na przykład oznakowana wizytówka umieszczona na ekranie wyświetli informacje o karcie. Smartfony umieszczone na powierzchniach mogą uruchamiać system bezproblemowo wyświetlać obrazy w galerii telefonu na ekranie.

    7. Komputer do noszenia

    Jak sama nazwa wskazuje, poręczne komputery są urządzenia elektroniczne, które możesz nosić na sobie jak akcesoria lub ubrania. Może to być para rękawiczek, okularów, zegarka, a nawet garnituru. Kluczową cechą noszonego interfejsu użytkownika jest to, że powinien trzymaj ręce wolne i nie będzie utrudniać codziennych czynności. Innymi słowy, będzie służyć jako działalność drugorzędna dla ciebie, jak i kiedy chcesz uzyskać do niego dostęp.

    Pomyśl o tym, że masz zegarek, który działa jak smartfon. Sony wypuściło już na początku tego roku SmartWatch z Androidem, który można sparować z telefonem z Androidem za pomocą Bluetooth. Może dostarczać powiadomienia o nowych wiadomościach e-mail i tweetach. Podobnie jak w przypadku wszystkich smartfonów, możesz pobierać kompatybilne aplikacje do Sony SmartWatch w celu ułatwienia dostępu.

    W niedalekiej przyszłości oczekuj większego interfejsu użytkownika, ponieważ mikroprocesory z inteligentnymi możliwościami stają się coraz mniejsze i pasują do codziennego użytku.

    8. Interfejs użytkownika sieci czujników (SNUI)

    Oto przykład płynnego interfejsu użytkownika, w którym znajduje się wiele kompaktowych płytek złożonych z kolorowych ekranów LCD, wbudowanych akcelerometrów i nadajników-odbiorników podczerwieni IrDA, które są w stanie współdziałać ze sobą, gdy znajdują się w pobliżu. Uprośćmy to. To jak płytki Scrabble, które mają ekrany, które zmieniają się, aby odzwierciedlić dane umieszczone obok siebie.

    Jak zobaczysz w tym wideo demonstracyjnym Siftables, użytkownicy mogą fizycznie wchodzić w interakcje z płytkami, przechylając, potrząsając, podnosząc i uderzając to z innymi podobnymi płytkami. Te kafelki mogą służyć jako wysoce interaktywne narzędzie naukowe dla małych dzieci, które mogą natychmiast zareagować na swoje działania.

    SNUI jest również świetny proste gry logiczne, w których rozgrywka obejmuje przesuwanie i obracanie płytek wygrać. Istnieje również możliwość sortuj obrazy fizycznie, grupując je razem zgodnie z Twoimi preferencjami. Jest to bardziej TUI z obsługą tłumu; zamiast jednego ekranu składa się z kilku mniejszych ekranów, które oddziałują na siebie.

    Najbardziej oczekiwany interfejs użytkownika?

    Ponieważ te interfejsy użytkownika stają się bardziej intuicyjne i naturalne dla nowej generacji użytkowników, jesteśmy traktowani w bardziej wciągający sposób, który nieustannie testuje naszą zdolność do przetrawiania zalewu wiedzy, którą muszą udostępnić. Będzie to przytłaczające, a czasami ekscytujące i na pewno czeka na nowe technologie.

    Więcej!

    Chcesz zobaczyć, co czeka nas w przyszłości? Sprawdź poniższe linki.

    • 5 najlepszych aplikacji Augmented Reality dla edukacji
    • 5 kluczowych funkcji, których można oczekiwać w przyszłych smartfonach
    • Filmy z TED-upuszczające szczęki, których nie należy przegapić

    Który z tych niesamowitych interfejsów jest najbardziej podekscytowany? Czy masz jakieś inne pomysły na interfejs użytkownika nowej generacji? Podziel się swoimi przemyśleniami w komentarzach.