Yahoo's misbruikdetectiealgoritme werkt 90% van de tijd en het is een grote stap voorwaarts in zijn vakgebied

computer algoritme hulp

Yahoo's nieuwsartikelen bevatten veel onsmakelijke opmerkingen, net als de rest van het internet, dus het Yahoo-team besloot hun opmerkingensectie te gebruiken om een ​​algoritme te ontwikkelen dat met succes de ergste overtreders kon identificeren. Hun nieuw misbruikdetecterend algoritme werkt 90 procent van de tijd, wat volgens hen het effectiever maakt dan de pogingen van andere organisaties om soortgelijke prestaties op zich te nemen, en wordt beschreven als een grote stap voorwaarts in het veld. 90 procent doet klinkt best goed, dat geef ik toe.

Bedrade meldt dat Yahoo ook de eerste openbaar beschikbare, beheerde database van online haatspraak vrijgeeft als onderdeel van hun project ter bestrijding van misbruik. Dit betekent dat andere sites Yahoo's database met opmerkingen kunnen gebruiken om hun eigen algoritmen te ontwerpen. Het algoritme van Yahoo is ontwikkeld op basis van machine learning en ook op door gebruikers gerapporteerde gegevens over hun commentaarsecties.

Het lastigste deel van elk algoritme voor het modereren van opmerkingen is het omgaan met valse positieven. Veel misbruikdetecterende algoritmen zoeken naar specifieke woorden of woordgroepen, zoals laster of veelvoorkomende beledigingen, en markeren de opmerkingen automatisch voor moderatie. Dit leidt er echter toe dat opmerkingen worden gemarkeerd, zelfs als ze verwijzen naar een smet in de context van bijvoorbeeld dat het niet gepast is, of als de opmerking een sarcastische imitatie van een trol is. Het algoritme van Yahoo kan blijkbaar bepaalde spraakpatronen detecteren en is ontworpen om het verschil te kunnen zien tussen grapjessarcasme en daadwerkelijk misbruik. (Natuurlijk, als je hilarische opmerking niet te onderscheiden is van daadwerkelijk misbruik, dan ben ik er vrij zeker van dat het algoritme het nog steeds zal markeren, maar ik kan niet met zekerheid zeggen hoe dat deel van de AI werkt.)

Yahoo schakelde getrainde moderatoren van reacties in om het algoritme te perfectioneren, en ze betaalden ook enkele ongetrainde moderators, en ze ontdekten dat de getrainde moderators een stuk beter waren in het uitzoeken welke opmerkingen gepast waren (een beetje een goed idee, maar hey). Tijdens het maken van de AI ontdekte Yahoo dat het werk van deze getrainde menselijke moderators essentieel was om de effectiviteit van het algoritme te behouden en de detectietechnieken te perfectioneren.

Natuurlijk, algoritmen hebben nog steeds vooroordelen , waarvoor een (hopelijk divers) team van menselijke moderators nodig zou zijn om door te gaan met het herhalen van de methodologieën die worden gebruikt om opmerkingen te classificeren. Klinkt als een zware baan, maar Yahoo begrijpt nu tenminste het belang van training en waardering voor de rollen van zowel hun goed opgeleide menselijke moderators als hun nieuwe AI-collega.

lilo en stitch verwijderde scène

(via Het volgende web , afbeelding via Michael Cordedda/Flickr )