Rozwój technologiczny od zawsze był motorem napędowym wielu zmian. Inicjował nowe nawyki, zachowania i potrzeby. Te z kolei u każdego badacza wywołują konsternację i zaskoczenie, bo „nagle” okazuje się, że ludzie całkowicie przestają mieć znane im dotąd bolączki, a pojawiają się całkowicie nowe problemy, na które do tej pory nie znaleziono dobrego rozwiązania. Problemy takie często mogą wynikać z niedopracowanej lub niewystarczającej technologii, bądź z całkowicie nowych wyzwań, jakie stawiane są przed użytkownikiem. Tak to już bowiem jest, że technologia generuje nowe zachowania, a te zaś wymagają badań i analizy. Przed takimi wyzwaniami stajemy właśnie dziś.
Bez względu na to, jak duże masz doświadczenie zawodowe, zapewne interesujesz się nowymi technologiami i zastanawiasz się czasem, jak wpłyną na Twoją pracę jako UX Researchera. Dlatego dziś krótka zajawka trendów technologicznych, które wpływają na UX.
Status Quo
Technologia staje się coraz szybsza i wszechobecna. Nie jesteśmy już ograniczeni do interakcji i łączenia się z innymi za pośrednictwem naszych telefonów. Głośniki inteligentnego domu i wirtualni asystenci mogą wyłączyć telewizor lub odtworzyć muzykę. Smart home wychodzi jednak już poza dom. Ja sam w swoim ogrodzie zainstalowałem ostatnio inteligentne nawadnianie – uwzględniające wilgotność gleby, ilość opadów, temperaturę i wiele innych zmiennych takich, jak rodzaj gleby, a nawet ich stadium rozwoju roślin. Wszystko sterowane automatycznie, a nawet za pomocą głosu. Jednym słowem: bajka. Technologie te zmieniają sposób, w jaki żyjemy na co dzień. Nie musimy się martwić wieloma rzeczami, które nie dawały nam do tej pory spokoju po wyjściu z domu, np. wyłączeniem żelazka czy przekręceniem klucza w zamku drzwi wejściowych?
Technologia stale czuwa, wspomaga nas i wyręcza. Poinformuje, gdy wymagana będzie nasza interakcja, a jeśli to zbędne, robot koszący zajmie się trawnikiem, kiedy będziesz spać. Idąc dalej: technologia rozpoznawania ruchu może automatycznie aktywować system rozpoznawania twarzy, aby odblokować urządzenie lub drzwi wejściowe do domu, gdy zapomnisz o kluczach. Rzeczywistość rozszerzona może wykorzystać Twoją bieżącą lokalizację do wyświetlania wirtualnych obiektów na wyświetlaczu lub na ekranie rzeczywistości rozszerzonej, jak w Pokémon GO, popularnej grze mobilnej wykorzystującej tę technologię. Badacze i projektanci UX i UI stają przed ogromnym wyzwaniem i szansą jednocześnie: badania i projektowania innowacyjnych interakcji i doświadczeń, które wcześniej nie istniały.
Technologia rozpoznawania ruchu
Ruch to bardzo silny bodziec dla naszego umysłu, w ułamku sekundy przykuwa naszą uwagę i wywołuje błyskawiczne reakcje motoryczne. Zapewne nieraz doświadczyłeś lecącej w Twoją stronę osy lub robiłeś unik przed wycelowaną w Twoją głowę śnieżką. Ale czym właściwie jest technologia rozpoznawania ruchu? User experience polega na opowiadaniu historii: przecież to w user journey map przedstawiamy całą podróż użytkownika względem produktu. Ale gdyby tak odwrócić sytuację i nie tylko analizować zachowania, lecz także je generować? Brzmi trochę jak szaleństwo, ale pomyśl: ruch może prowadzić użytkownika przez sekwencję czynności, które są niezbędne do wykonania określonego zadania. Może napędzać wrażenia i bezpośrednio potwierdzać działania, dostarczając wizualnych informacji zwrotnych takich, jak animacja, tekst lub obrazy, aby poinformować, że zadanie zostało wykonane. W ciągu ostatnich kilku lat byliśmy świadkami rozwoju technologii rozpoznawania ruchu – MS Kinect, Nintendo Wii czy Sony Playstation Move.
Kilka lat temu Google zaprezentował swój smartfon Pixel 4. Posiada on wbudowaną technologię i pozwala na podstawowe sterowanie, takie jak wyciszanie alarmów lub przechodzenie do następnego utworu poprzez trzymanie lub machanie rękami. Niektóre telefony mają już tę technologię, np. rozpoznawanie siatkówki w celu odblokowania, co daje całkowicie nowe możliwości. Użytkownicy mogliby teoretycznie odebrać połączenie z dużych odległości, mrugając lub unosząc brwi, co byłoby przełomem w obsłudze urządzeń zintegrowanych ze smart home.
Telefon Google’a pozwala pomijać utwory, włączać alarmy i wyciszać połączenia telefoniczne machnięciem ręki. Takie rozwiązania szeroko stosowane są już w samochodach, choćby w BMW. Tam nie tylko odbierzesz lub odrzucisz połączenie gestem ręki, ale także dostosujesz głośność muzyki, zmienisz stację radiową, uruchomisz nawigację lub obejrzysz swoje auto w 360° dzięki wbudowanym kamerom.
Co to oznacza dla badaczy? Całkiem nowe zachowania użytkowników. Jakie będą mieli problemy z wykonaniem odpowiedniego gestu? A co z osobami niepełnosprawnymi? To naprawdę ogromne wyzwanie także dla projektantów UX. Pojawia się pytanie: czy to zmienia dotychczasowy proces projektowania? W pewnym sensie tak, ale zasady użyteczności pozostają takie same. W rzeczywistości technologia rozpoznawania ruchu może wspierać użyteczność. Użytkownicy będą rozwijać potrzeby w tym kierunku. Ich oczekiwania będą rosły, a wygrają te urządzenia, które oferować będą pełną, swobodną i intuicyjną obsługę gestami. Zadaniem badaczy będzie przeprowadzenie całej masy całkowicie inaczej wyglądających (z naszej obecnej perspektywy) badań i testów. Metodyki zostaną niezmienne, lecz wydźwięk i efekt będą całkowicie inne. Podobnie jak wnioski i zalecenia.
Rozwój urządzeń połączonych
Drastycznie wzrasta liczba inteligentnych urządzeń fizycznych, które można ze sobą połączyć. W przypadku zwykłych użytkowników urządzenia te mogą obejmować niemal wszystko: od oświetlenia, kuchenek, ekspresów do kawy, słuchawek, kosiarek czy zmywarek, po systemy bezpieczeństwa, urządzenia wearable i samojezdne samochody. Użytkownicy mogą łączyć ze sobą wiele z nich, w celu gromadzenia danych i wykonywania automatycznych działań. Przytoczę tutaj bardzo popularny system Fibaro – smart home, gdzie za pomocą jednego fizycznego przycisku uruchomiona zostanie dowolna automatyzacja. Przykładowo: przy wychodzeniu z domu jeden przycisk zgasi wszystkie światła, zasunie rolety w oknach, otworzy bramę garażową i wjazdową, a kiedy już wyjedziesz samochodem poza nią, zamknie wszystko, uzbroi alarm i obniży temperaturę domu o kilka stopni, aby zwiększyć Twoje oszczędności. Kiedy zaś będziesz wracać, wykryje to i przygotuje dom dla Ciebie: podgrzeje w pierwszej kolejności salon, bo tam zazwyczaj spędzasz czas po powrocie, podniesie rolety i – jeśli będą to godziny wieczorne – włączy odpowiednie oświetlenie wraz z Twoją ulubioną muzyką, czyli uruchomi masę różnych urządzeń w jednej automatyzacji.
Taki synergicznie działający inteligentny dom, pełen komunikujących się ze sobą całkowicie różnych urządzeń, wpłynie na nasze poglądy i nawyki dotyczące pracy i codziennych obowiązków. Dzięki tym urządzeniom użytkownicy zyskają coraz większe zaufanie do technologii. Może to skomplikować sposób, w jaki będziemy prowadzić badania, bowiem z pewnością wymagać to od nas będzie dokładnego zrozumienia, jak fizyczny produkt taki, jak np. zmywarka, działa samodzielnie. Wcześniej, korzystając z oprogramowania lub aplikacji cyfrowych, projektanci UX mogli po prostu tworzyć makiety i wysyłać prototypy do uczestnika, uzyskiwać natychmiastowe opinie i szybko wprowadzać zmiany. Teraz testy będą wymagały analizy na miejscu, ze względu na wzrost liczby połączonych produktów fizycznych wchodzących w interakcje już nie tylko z użytkownikiem, ale także z innymi inteligentnymi produktami i systemami.
Podsumowując: User experience będzie ewoluować pod względem tego, jak research postrzega użytkownika. Jak zatem poszerzyć swoje umiejętności w zakresie tych złożonych technologii? Czytaj o najnowszych trendach, możesz także zacząć poszerzać swoje umiejętności ucząc się animacji i projektowania ruchu. Możliwości innowacji i kreatywności w UX będą ogromne! Jak to powiedział Don Norman: „Ekscytujące czasy i świetlana przyszłość [stoi] przed zawodem UX.”
To jeszcze nie koniec – kolejne trendy wpływające na pracę UX, już w kolejnym wpisie! Stay tuned!