Amazon Echo spelade hemligt ett familjesamtal och skickade en kopia utan tillstånd

Glöm det kusliga skrattet. För en familj i Portland, Oregon, har en Amazon Echo-enhet blivit ingen skratt. En av de bästsäljande smarta högtalarna i hemmet spelade inte bara in sina samtal, utan den skickade också dessa inspelningar till någon utan familjens tillstånd. Det påstådda avsnittet får dig att undra om företag som Amazon ser allvar på privatlivet när det gäller smarta hemanordningar.

Enligt KIRO-TV älskade familjen Oregon Amazon-enheter och använde dem för att kontrollera sitt hem värme, lampor och säkerhetssystem. Men då hände något konstigt.

Enligt Danielle, som inte ville att KIRO-TV skulle använda hennes efternamn, ringde någon henne hem i början av maj och berättade för henne att koppla bort hennes Alexa-enheter eftersom "du blir hackad." Han förklarade att han hade fått ljudfiler med inspelningar från Daniels hus. Personen i andra änden av telefonen var inte en främling, utan en av hennes mans anställda. Hans personliga information stod i Alexa's kontaktlista.

Så vad hände?

I ett e-postmeddelande till The Washington Post, som tog sig upp på KIRO-TV-berättelsen, förklarade Amazon att Echo antagligen vaknade när det hörde ett ord som lät som "Alexa."

Därifrån:

Den efterföljande konversationen hördes som en "skicka meddelande" -förfrågan. Vid vilken tidpunkt sa Alexa högt "Till vem?" Vid vilken tidpunkt tolkades bakgrundssamtalen som ett namn i kundens kontaktlista.

De drog slutsatsen: "Så osannolikt som denna sträng av händelser är, vi utvärderar alternativ för att göra detta fall ännu mindre troligt."

Det här är inte första gången Amazons röstassistent anklagas för att lyssna på människor utan deras tillstånd. Amazons smarta enheter är tänkta att spela in ljud först efter att en användare har utfärdat ett röstkommando, känt som "wake word". I april upptäckte dock forskare en brist i Alexa-röstassistenten som gjorde det möjligt för enheten att fortsätta lyssna och spela in. Efter att ha hört av forskarna fixade Amazon sårbarheten.

Det bästa sättet att garantera Alexa, Siri, Google Home eller någon annan röstassistent spelar inte in din konversation är att stänga av enheten när den inte används. Annars finns det alltid en chans att du spelas in.

Ändå låter historien som nämns här i bästa fall konstigt. Jag säger inte att det inte hände, men det verkar som om Alexa var tvungen att hoppa igenom ett hotfullt antal bågar för att göra vad familjen säger att det gjorde. Dessutom låter till och med Amazons förklaring över rimliga, tror ni inte?

Tror du på den här historien? Låt oss veta i kommentarerna nedan.