Att manipulera bilden av sitt eget ansikte har numera blivit vardagsmat. Det var 2015 som Snapchat lanserade möjligheten att lägga alla möjliga slags filter på selfies, så att man i realtid förvandlades till seriefigur, en katt, en gamling eller bara överdrivet snygg.
Allt fler vänjer sig vid erfarenheten av att spegla sig på skärmen och se det egna ansiktet i en digitalt modifierad form. Det är bara de mest aktiva användarna av Snapchat och Tiktok som lär sig vilka små förändringar av ansiktsuttryck som samspelar bra med vissa speciella filter. Men för oss alla händer nog något med vårt sätt att se andras ansikten.
Någonting motsvarande kan vara på väg att ske med rösten. Om några år är det sannolikt att vi har tillgång till appar som i realtid modifierar vårt sätt att prata på ett långt mer sofistikerat sätt än vad som är möjligt idag. För visserligen har man länge kunnat framkalla robotröster med hjälp av vocodern (en militär uppfinning från andra världskriget). Och 2000-talets populärmusik har till stor del drivits av en annan teknik för röstmanipulering, nämligen autotune (vars grundläggande teknik utvecklades i syfte att leta olja i berggrunden med hjälp av ljud).
Att ändra en människas dialekt i realtid är en svårare uppgift. För detta krävs någon form av artificiell intelligens som har kunnat lära av enorma mängder befintliga ljudinspelningar. Nu börjar just detta bli möjligt.
Mängder av människor i Indien jobbar på callcenters som kundtjänst åt människor i USA. Dessa har ofta behövt gå kurser i att slipa bort sitt indiska uttal för att i stället låta mer som den typiska vita nordamerikanen. Men på vissa callcenters används i stället mjukvara som gör samma sak i realtid. En enorm effektivisering av en kolonial språklig hierarki. Mjukvaran har utvecklats av en startup i Silicon Valley som just fått nytt kapitaltillskott.
Kanske kommer jag i framtiden kunna välja att stänga av min halländska när jag pratar i telefon?