Opopulär åsikt Apple-entreprenörer lyssnar på lite Siri-ljud för att förbättra tjänsten. Vad mer är nytt?

Förra helgens rapport från den brittiska tidningen The Guardian redogjorde för att Apple anställer entreprenörer som har till uppgift att lyssna på Siri-ljud, vilket fick kritiker att ta historien som bevis på att Apples åtagande till integritet inte är annat än marknadsföringsprat.

Ett utdrag ur Guardians rapport:

Apple-entreprenörer hör regelbundet konfidentiell medicinsk information, läkemedelsavtal och inspelningar av par som har sex, som en del av deras jobb som ger kvalitetskontroll, eller "betygsättning", företagets Siri-röstassistent, har Guardian lärt sig.

Även om Apple inte uttryckligen avslöjar det i sin konsumentläge integritetsdokumentation, överförs en liten del av Siri-inspelningar till entreprenörer som arbetar för företaget runt om i världen.

Är du positivt, hundra procent säker på det? Eftersom jag just har granskat Apples sekretessskärmar spridda över sina operativsystem och för att de säkert tydligt stryker att vissa Siri-inspelningar kan användas för att förbättra Siri-tjänsten. Dessutom kunde jag hitta följande utdrag genom att snabbt kombinera Apples iOS-programvarulicensavtal:

Genom att använda Siri eller Dictation, samtycker du till och samtycker till Apples och dess dotterbolags och agenters överföring, insamling, underhåll, bearbetning och användning av denna information, inklusive din röstinmatning och användardata, för att tillhandahålla och förbättra Siri, Dictation och dikteringsfunktioner i andra Apple-produkter och tjänster.

Hela passagen är fet och jag tycker att det är ganska otvetydigt om Apples avsikter.

"Uppenbarelsen" om att företaget säljer röstdata som samlats in av den personliga assistenten från Siri till tredje part-entreprenörer med uppgift att utbilda Siri-algoritmen - som en del av sitt försök att förbättra Siri-tjänsten är inget nytt om du har följt teknologi.

Även The Guardian erkänner lika mycket:

De betygsätter svaren på olika faktorer, inklusive om aktiveringen av röstassistenten var avsiktlig eller oavsiktlig, om frågan var något Siri kunde förväntas hjälpa till med och om Siris svar var lämpligt.

Det här är inte första gången som människor har "upptäckt" att vissa Siri-ljudavsnitt överförs till en tredje part. Redan 2015 skrev en anonym anställd i ett företag som heter Walk N'Talk Technologies på Reddit att röstdata som analyserades av företaget kommer från personliga assistenter som Siri och Cortana.

Apple släppte följande uttalande till Guardian och andra:

En liten del av Siri-förfrågningarna analyseras för att förbättra Siri och diktat. Användarförfrågningar är inte kopplade till användarens Apple-ID. Siri-svar analyseras i säkra anläggningar och alla granskare är skyldiga att följa Apples strikta sekretesskrav.

The crux i Guardians historia kommer från en "visselpipa", i princip en Apple-arbetsgivare som rapporterade att ha hört några privata saker under oavsiktliga aktiveringar.

Så här sade visselpipan till tidningen:

Det har varit otaliga fall av inspelningar med privata diskussioner mellan läkare och patienter, affärsavtal, till synes kriminella affärer, sexuella möten och så vidare. Dessa inspelningar åtföljs av användardata som visar plats, kontaktinformation och appdata.

Ljudinspelningar av användarfrågor utnyttjar metadata som plats för att bättre förstå sammanhang. Den oroande delen är det faktum att entreprenörer kan höra privata konversationer i första hand. Som rapporten själv erkänner är det möjligt eftersom en användare av misstag kan påkalla Siri utan att inse det, i sin tur be om ljudinspelning av vad som sägs efter väckningsfrasen "Hey Siri" att laddas upp till servern, och verkligen inte för Siri spelar hemlighet samtal utan användarens samtycke.

Mina känslor på detta är verkligen inte samma sak som resten av Internet.

Ingen digital assistent kan förväntas förbättra sig över tiden baserat på kraften i artificiell intelligens och maskininlärning ensam. Det beror på att maskininlärningsmodellen som används av en assistent måste utbildas först av mänskliga redaktörer - det finns bara inga två sätt att göra det på.

Google Photos skulle ha kunnat känna igen ansikten med otrevlig precision om företaget inte hade tränat algoritmen med riktiga människors foton. Apples Face ID hade inte varit möjligt om dess maskininlärning inte hade tränats på mer än en miljon fotografier av olika mänskliga ansikten. Till och med något så "vanligt" som taligenkänning kan förbättras drastiskt genom att använda en maskininlärningsalgoritm med hjälp av utbildad data.

Den hårda sanningen är att maskiner inte (ännu) kan träna andra maskiners maskininlärningsmodeller med tillfredsställande resultat - det är jobbet vi människor utmärker oss på.

Alla i branschen som ser allvar med artificiell intelligens använder mänskliga redaktörer för att utbilda sina maskininlärningsalgoritmer med målet att förbättra tjänsten. Dessa anställda utsätts för allt innehåll som är kärnan i deras ansträngningar, vare sig det är korta ljudavsnitt som fångats av smarta högtalare under röstinteraktioner eller foton som folk laddar upp till en fotodelningstjänst eller flaggade objekt i ett socialt medias foder, du får idén.

Vissa företag tar integriteten mer på allvar än andra företag. Vissa företag kanske inte är lika transparenta när det gäller hur deras mänskliga redaktörer närmar sig uppgiften som andra. Och i slutändan kommer förmodligen vissa företag som inte har ett så starkt register att skydda användarnas integritet granskas mer av media och allmänheten än de andra,.

Men jag tror inte för en sekund att det är i något företags intresse att kräva att deras anställda faktiskt lyssnar på våra samtal med en personlig digital assistent bara för att de kan - eller för att de kanske hoppas på något sätt hämta handlingsbar information från de privata konversationer - och komma undan med det i många, många år utan att någon faktiskt märker eller klagar någonting. Det är helt enkelt inte möjligt i dagens nätverksvärld.

Missförstå mig inte, jag uppskattar hårt utredningsarbete som utförts av en del av journalisterna som rapporterar om dessa saker eftersom de ger privatlivskorsfarare något att tugga på. Men jag köper inte för en sekund deras tunt slöja eller underförstådda slutsats att Big Tech inte bara anställer mänskliga redaktörer för att utbilda Siri, Alexa och Google Assistant, utan också för att lyssna på våra samtal för några ännu att avslöja men säkert oredliga syften.

Ja, en del Amazon-personal som lyssnar på Alexa-förfrågningar har verkligen tillgång till användarnas hemadresser eftersom vissa talade förfrågningar innehåller plats. Och ja, vissa Google Assistant-inspelningar som granskats av människor kan potentiellt inkludera privata konversationer eftersom kunder är fri att säga vad fan de vill till sin digitala assistent.

Det är vad dessa anställda uppmanas att göra med de inspelningar som räknas i slutet av dagen. Det är det faktum att någon oseriös mänsklig redaktör kan missbruka privat kundinformation som borde ha oss orolig, inte det faktum att människor lyssnar på att välja ljudinspelningar i en långtgående säker anläggning med det uttryckliga målet att förbättra tjänsten.

tankar?