OMEGAblog - Le news sull'ICT che stavi cercando.

[Geek] Facebook: sembra che l’intelligenza artificiale non funzioni tanto bene nel rimuovere i contenuti d’odio. - Omegatech IT WORKS!

Scritto da successteam@omegatech.it | Oct 19, 2021 4:00:27 PM
[mk_padding_divider size=”20″]

Secondo un report del Wall Street Journal, l’intelligenza artificiale a cui si affida il social avrebbe un’efficacia del 5% nell’identificare ed eliminare le conversazioni che diffondono odio e violenza. Gli stessi ingegneri senior di Facebook avrebbero dichiarato una percentuale ancora più bassa, del 2%.

Di fatto, si sta parlando di delegare e automatizzare il riconoscimento di contenuti che possono recare disagio e danno alle persone. E’ corretto usare uno strumento così diffuso anche tra persone con ridotta capacità critica o semplicemente di “massa” per testare algoritmi e automatismi che dovrebbero tutelare gli stessi utenti dal problema? Non sarebbe meglio prima tutelare con degli organismi di vigilanza senzienti/umani e solo dopo che il programma ha raggiunto almeno la loro precisione, metterlo in produzione? Dicci cosa ne pensi!

Se vuoi approfondire la news, ecco il Link

[mk_padding_divider size=”20″]