PDF Button - net:politics

Download Report

Transcript PDF Button - net:politics

9
SHARES
ShareTweet
Dopo le ultime elezioni americane, si è acceso un vero e proprio dibattito attorno a
Facebook – e altri social – relativamente al ruolo di questa piattaforma nel favorire o meno
l’ascesa di Donald Trump alla Casa Bianca, secondo alcuni osservatori anche tramite un
mancato contrasto attivo alle bufale – o comunque notizie ritenute tali dai commentatori –
trasmesse sul social.
Al di là della sua azione di contrasto alle notizie infondate attraverso le segnalazioni
ricevute dagli utenti, l’azienda di Mark Zuckerberg ha deciso di puntare anche
sull’intelligenza artificiale, tramite l’utilizzo di algoritmi e machine learning per identificare
in maniera più incisiva la presenza di bufale all’interno di questo social network.
Dopo aver introdotto un aggiornamento pensato per andare a colpire le bufale presenti nei
news feed, penalizzando i link a quelle notizie segnalate come infondate dagli utenti, Menlo
Park ha quindi puntato su un meccanismo atto a contrastare il fenomeno del clickbait,
addestrando un algoritmo ad hoc per trovare subito i titoli e i commenti che sono tipici di
questi contenuti trash.
I test condotti nei due sensi – secondo quanto ha fatto sapere Facebook – hanno messo in
evidenza come il sistema che sfrutta il machine learning si è rivelato essere più efficiente,
giacché ha generato un minor numero di falsi positivi e falsi negativi, un aspetto che ha
spinto Menlo Park a ritenere una soluzione migliore puntare sull’AI anziché sulle persone.
Il motivo di questa preferenza, è presto detto: un intervento umano nell’eliminare
determinate bufale, o comunque notizie che possono sembrare infondate, potrebbe essere
“distorto” dalle convinzioni personali dell’individuo, ponendo in questo senso dei seri
problemi di giudizio da parte dell’utenza, che potrebbe ritenere una decisione “sgradita”
come parziale.
In effetti, Menlo Park (Stabilimento nativo del più grande social network del mondo) – dopo
un report sulla presunta parzialità del suo team di persone che si occupano di individuare i
trend, ai quali era stata rimproverata la tendenza ad eliminare maggiormente contenuti di
tipo “conservatore” – aveva deciso di sostituire alle persone l’intelligenza artificiale.
Ma dopo questo episodio, il NYT era insorto giacché il sistema non era riuscito – in alcune
occasioni – a filtrare in maniera corretta le bufale, un aspetto che aveva messo a dura prova
la fiducia nei confronti dell’obiettività del social. Eppure, ancora oggi, al quesito sembra non
esservi risposta: chi è l’arbitro della verità e della autenticità delle notizie?
Content retrieved from:
http://www.pcprofessionale.it/news/facebook-intelligenza-artificiale-bufale/.