Tillsammans med studenter utforskar vi VR som verktyg i användartester

I samarbete med Lunds Tekniska Högskola

Underhållningssystem (IFE) ombord på flyg ska vara enkla och roliga att använda. För att lyckas med det behöver vi förstå hur passagerare faktiskt använder skärmen framför sig. Att göra användartester är ett bra sätt för oss att fånga upp värdefull information om hur användarna upplever ett IFE. Men – att återskapa en riktig flygupplevelse i en labbmiljö är inte helt lätt. Att sätta våra testpersoner i ett riktigt flygplan vore förstås fantastiskt – men också ganska opraktiskt (och dyrt). Så hur kan vi då skapa en mer verklighetstrogen testmiljö utan att lämna marken? Kan VR vara lösningen?

Tillsammans med dataingenjörsstudenter från Lunds Tekniska Högskola har vi undersökt möjligheterna närmare. Två exjobb har utforskat VR i användartester på olika sätt:

VR och Eye Tracking i användartester

Först ut, våren 2023, hade vi Fredrik och Rasmus som kikade på om vi med hjälp av VR kunde skapa en mer realistisk flygupplevelse i testmiljö. I vanliga fall gör vi våra tester på en skärm vid ett skrivbord. Nu kunde testpersonerna istället kliva in i en virtuell flygplanskabin med stolsgrannar, motorljud och moln utanför fönstret. Själva IFE-skärmen framför testpersonen var däremot helt verklig, vilket gjorde att de kunde använda den precis som de skulle ha gjort på ett riktigt flygplan.

Resultatet från exjobbet visade att VR-miljön gav en mer realistisk upplevelse som gjorde deltagarna mindre medvetna om att de deltog i ett test. Testpersonerna kunde fokusera mer på själva upplevelsen vilket gjorde att vi kunde fånga upp mer naturliga reaktioner och beteenden.

Vintern 2024, tog Vanessa och William över stafettpinnen och utforskade om Eye Tracking i VR-miljö kan göra våra användartester ännu bättre. Ögats rörelser registrerades i realtid och visualiserades genom värmekartor och blickspårare. På så sätt kunde vi se exakt var och vad på skärmen som verkade fånga ögats uppmärksamhet, men också vad som verkade förvirra och vad som bara sveptes förbi.

Resultatet från Vanessa och Williams exjobb visade att Eye Tracking kan vara ett bra hjälpmedel för att bättre förstå om en testperson verkar hitta rätt i ett gränssnitt utifrån de uppgifter och instruktioner som ges. Vilka knappar hittar testpersonen direkt? Vilka områden verkar svåra att navigera i? Var fastnar blicken extra länge? Värdefulla insikter för oss att ha när vi ska utveckla och designa våra IFE.

 

Vad händer nu?

Dessa två exjobb har visat på möjligheterna VR och Eye Tracking ger oss att skapa ännu bättre användarlösningar – men vi har fortfarande mycket kvar att utforska! Vi ser fram emot att testa fler idéer och vill gärna fortsätta att göra det tillsammans med fler nyfikna studenter!

Vi vill passa på att rikta ett stort tack till Günter, Joakim och deras kollegor på Institutionen för Designvetenskaper vid Lunds Tekniska Högskola för ett fint samarbete – vi ser fram emot att göra fler spännande upptäckter tillsammans med er och studenterna!