Compensació Pel Signe Del Zodíac
Sonabilitat C Celebritats

Esbrineu La Compatibilitat Per Signe Del Zodíac

Pregunteu a l'eticista: és correcte que Facebook suprimi les notícies conservadores?

Ètica I Confiança

Foto de Dave Pape a través de Flickr.

Gizmodo va encendre una tempesta de foc a les xarxes socials avui reportat que els comissaris de la secció 'tendències' de Facebook posen regularment el kibosh a les notícies de la dreta.

La història, atribuïda a fonts anònimes, va ser notable en part a causa de l'estatus de Facebook com a gegant mediàtic que dirigeix ​​una mànega de trànsit a les organitzacions de notícies cada dia. Però també va fer onades perquè Facebook s'ha esforçat per presentar-se com a intermediari no partidista de les notícies, una empresa que ofereix històries sense inclinació. En una resposta A la història de Gizmodo, Facebook va dir que s'estava prenent 'molt seriosament' les acusacions de biaix i va reafirmar el seu compromís de proporcionar opinions 'a tot l'espectre polític'.

En poc més d'una dècada, Facebook ha passat d'una posada en marxa de dormitoris a un dels més grans distribuïdors de notícies i informació a tot el món. Llavors, com hem de reaccionar quan es revela que un dels intermediaris més importants del periodisme està format per éssers humans amb prejudicis humans? A continuació es mostra una sessió de preguntes i respostes amb Kelly McBride, vicepresidenta de The Poynter Institute i el seu ètic dels mitjans, sobre què significa l'informe d'avui per a la indústria de les notícies.

Si l'afirmació de Gizmodo és precisa i els comissaris de notícies de Facebook estaven evitant deliberadament les notícies conservadores, això suposa un problema? Si és així, per què?

Aquest és un problema perquè demostra la capacitat de manipular el mercat d'idees des de darrere de les escenes. No és res nou, però socava els defensors de les xarxes socials que diuen que Facebook és un fòrum de distribució de notícies més democràtic.

Fa temps que sabem que els algorismes tenen biaixos programats en el seu procés de selecció. Però aquesta afirmació que els humans estaven anul·lant el procés de selecció soscava tota la idea d'una llista de notícies i canals algorísmics. Em suggereix que Facebook no tenia plena fe en la seva base d'usuaris. Això és especialment cert si tens en compte l'afirmació de la font anònima que l'equip va rebre instruccions per trobar una font més neutral d'informació que tingués tendència en funció dels informes inicials d'un lloc conservador.

Sospito que hi ha més informació sobre aquesta pràctica, descrita per fonts sense nom, que ens ajudarà a entendre el que Facebook estava intentant aconseguir. Perquè no té gaire sentit comercial que Facebook manipuli en secret temes de tendència basats en un punt de vista polític.

Això no allunyaria una gran part dels seus usuaris? Hi ha d'haver més detalls que ens ajudin a entendre-ho. Potser, com va especular una font, estaven perfeccionant l'algorisme?

Organitzacions de notícies, evidentment tenir prejudicis sobre el que trien presentar. La preferència de Facebook aquí és realment tan diferent d'un diari, estació de televisió o startup digital?

Això és una mica més difícil de discernir per al públic, de manera que és menys transparent i, per tant, diferent. És més fàcil detectar un biaix humà quan saps buscar-ne un. Fins ara, pensàvem que l'equip de temes de tendència només escrivia titulars i descripcions, sense influir en la nostra comprensió del que és tendència.

Aquesta història revela que les recomanacions de Facebook no estan totalment basades en algorítmica: estan fetes en part per humans, amb preferències humanes. Hi ha mesures que Facebook pugui prendre per reduir l'aparició de biaix en les seves seleccions?

Si voleu que l'audiència confiï en vosaltres, la transparència sempre és la resposta tant si parleu de prejudici humà com de prejudici de màquina. És més fàcil dir-ho que fer-ho, en tots dos casos. És difícil per als humans descriure amb precisió els seus biaixos. I els algorismes necessiten una mica d'opacitat si volen ser resistents a la manipulació.

Si Facebook pogués dir-nos més sobre què privilegia l'algoritme i què descarta l'algoritme, seria útil. Si Facebook també ens pogués dir què fan i què no fan els humans, tindríem més informació de la que tenim ara i més motius per confiar en el que veiem.

Facebook és un gran determinant de les notícies que veiem en línia. Té la responsabilitat de ser transparent sobre com ens serveix les històries?

Com a motor número 1 de l'audiència als llocs de notícies, Facebook s'ha convertit en la força més gran del mercat d'idees. Amb aquesta influència comporta una responsabilitat important. Hi ha moltes maneres en què Facebook podria fer front a aquesta responsabilitat. En el passat, Facebook ha afirmat que reconeix les seves obligacions democràtiques. Però sempre es pot fer més.

Hi ha altres mesures que Facebook pugui fer?

Aquí hi ha una idea boja: què passaria si Facebook (i altres empreses que tenen una clara capacitat d'influir en el mercat d'idees) tinguessin un editor públic, com ho fa The New York Times. Aquesta persona seria capaç d'investigar i escriure sobre l'empresa des del punt de vista del públic, responent preguntes i explicant els valors que impulsen determinades decisions.

L'editor en cap de Poynter, Benjamin Mullin, va contribuir a aquest informe.