News

[Geek] Facebook: sembra che l’intelligenza artificiale non funzioni tanto bene nel rimuovere i contenuti d’odio.

[mk_padding_divider size=”20″] Secondo un report del Wall Street Journal, l’intelligenza artificiale a cui si affida il social avrebbe un’efficacia del 5% nell’identificare ed eliminare le conversazioni che diffondono odio e violenza.


[mk_padding_divider size=”20″]

Secondo un report del Wall Street Journal, l’intelligenza artificiale a cui si affida il social avrebbe un’efficacia del 5% nell’identificare ed eliminare le conversazioni che diffondono odio e violenza. Gli stessi ingegneri senior di Facebook avrebbero dichiarato una percentuale ancora più bassa, del 2%.

Di fatto, si sta parlando di delegare e automatizzare il riconoscimento di contenuti che possono recare disagio e danno alle persone. E’ corretto usare uno strumento così diffuso anche tra persone con ridotta capacità critica o semplicemente di “massa” per testare algoritmi e automatismi che dovrebbero tutelare gli stessi utenti dal problema? Non sarebbe meglio prima tutelare con degli organismi di vigilanza senzienti/umani e solo dopo che il programma ha raggiunto almeno la loro precisione, metterlo in produzione? Dicci cosa ne pensi!

Se vuoi approfondire la news, ecco il Link

[mk_padding_divider size=”20″]

Similar posts

Get notified on new marketing insights

Be the first to know about new B2B SaaS Marketing insights to build or refine your marketing function with the tools and knowledge of today’s industry.