Skulle det inte vara bra om maskininlärning skulle kunna användas för att förbättra kommentarer och andra konversationer online? Både stora och små förläggare, från NYT till den webbplats du nu läser, spenderar stora resurser för att hindra troll från att bombardera läsare med giftiga kommentarer.
En ny Google-teknik baserad på maskininlärning strävar efter att automatisera processen att sortera genom miljontals kommentarer, vilket hjälper till att identifiera och flagga missbrukande kommentarer som undergräver ett civilt idéutbyte.
I samarbete med Jigsaw lanserade Google Perspective, en tidig teknik baserad på maskininlärning som kan hjälpa till att identifiera giftiga kommentarer på webben. Det officiella API för perspektiv gör det möjligt för utgivare att använda den här tekniken för sina webbplatser.
Google förklarar hur det fungerar:
Perspektivet granskar kommentarer och betygsätter dem baserat på hur likartade de är som kommentarer som folk sa att var "giftiga" eller troligt att någon skulle lämna en konversation. För att lära sig att upptäcka potentiellt giftigt språk granskade Perspective hundratusentals kommentarer som hade märkts av mänskliga granskare.
Varje gång Perspektivet hittar nya exempel på potentiellt giftiga kommentarer eller har korrektioner från användare kan det bli bättre på att få framtida kommentarer.
Efter att systemet har identifierat giftiga kommentarer kan utgivare flagga dem för sina egna moderatorer för att granska och inkludera dem i en konversation. Läsarna kan också sortera kommentarer efter toxicitet för att få upp konversationer som betyder något. Systemet kan till och med låta kommentatorer se den potentiella toxiciteten för deras kommentar när de skriver det.
Du tror att trolling inte är ett så stort problem?
Thing again - The New York Times har ett helt team anklagat för att granska i genomsnitt 11 000 kommentarer varje dag. På grund av den stora arbetskraften som krävs för att granska kommentarerna har papperet kommentarer på endast cirka tio procent av dess artiklar.
Google och Times har arbetat tillsammans för att utbilda modeller för maskininlärning så att moderatorerna kan sortera igenom kommentarer snabbare. När Perspective lanseras offentligt och många fler förlag omfamnar det kommer systemet att utsättas för fler kommentarer och utveckla en bättre förståelse för vad som gör vissa kommentarer giftiga.
”Vår första modell är utformad för att upptäcka giftigt språk, men under nästa år är vi angelägna om att samarbeta och leverera nya modeller som fungerar på andra språk än engelska samt modeller som kan identifiera andra perspektiv, till exempel när kommentarer är osäkra eller utanför ämnet, sade Google.
Enligt DataSociety har 72 procent av amerikanska Internetanvändare bevittnat trakasserier online och nästan hälften har personligen upplevt det. Nästan en tredjedel av de tillfrågade sa att de självcensurerar vad de publicerar online på grund av rädsla för vedergällning. Det uppskattas att trakasserier online har påverkat livet för ungefär 140 miljoner människor i USA och många andra på andra håll.
Källa: Google