{"id":1931,"date":"2021-05-11T13:44:02","date_gmt":"2021-05-11T13:44:02","guid":{"rendered":"https:\/\/proyectosynco.com\/?p=1931"},"modified":"2021-05-11T13:44:06","modified_gmt":"2021-05-11T13:44:06","slug":"coded-bias-prejuicio-documentado","status":"publish","type":"post","link":"https:\/\/sonambula.com.ar\/synco\/?p=1931","title":{"rendered":"Coded bias: prejuicio documentado"},"content":{"rendered":"\n<p>Lectura r\u00e1pida del documental de Netflix sobre el sesgo en los algoritmos<\/p>\n\n\n\n<p><strong>\/\/<\/strong> <strong>por Laura Ponce y Luc\u00eda Vazquez<\/strong><\/p>\n\n\n\n<p>En abril de este a\u00f1o <em>Netflix<\/em> subi\u00f3 a su plataforma el documental estadounidense que se estren\u00f3 en noviembre de 2020 en <em>Sundance<\/em>, <em>Coded bias<\/em>, traducido como \u201cPrejuicio cifrado\u201d. En estas breves l\u00edneas pensamos algunos aspectos interesantes del <em>film<\/em> independiente realizado por Shalini Kantayya, hija de padres indios, cuya filmograf\u00eda se cruza con su activismo de derechos humanos, ecolog\u00eda y feminismo.<\/p>\n\n\n\n<p>El documental se enfoca en los algoritmos de reconocimiento facial y los sesgos en su programaci\u00f3n. Todo empieza cuando la cient\u00edfica \u2013y luego activista\u2013 Joy Buolamwini descubre que la aplicaci\u00f3n de filtros faciales que ella misma dise\u00f1\u00f3 no reconoce su cara hasta que se pone una m\u00e1scara blanca. Negra, joven, mujer, Joy tiene un rostro que el algoritmo no reconoce como tal, <em>como un rostro<\/em>. Inquiet\u00edsima y potente, no para hasta hacer que los CEOS de Amazon salgan a pedir disculpas, porque sus algoritmos de selecci\u00f3n de personal podr\u00edan ser \u201cdiscriminadores\u201d. Y aqu\u00ed se abren dos caminos para la investigaci\u00f3n de Joy y el propio documental. Por un lado, se abre la posibilidad de que <em>todos<\/em> los algoritmos discriminen. Y por otro \u00bfde qu\u00e9 hablamos cuando decimos que un algoritmo discrimina?<\/p>\n\n\n\n<p>Kantayya sale por momentos de la historia que sigue a Joy \u2013que, alerta <em>spoiler<\/em>, termina haciendo una presentaci\u00f3n en el Congreso norteamericano y convenciendo a buena parte de los Estados de que la polic\u00eda no use las aplicaciones de reconocimiento facial\u2013 para visitar otros casos de discriminaci\u00f3n algor\u00edtimica o c\u00f3digos sesgados. Entre los que pueden resultar m\u00e1s inquietantes para nuestra imaginaci\u00f3n <em>sci-fi<\/em> est\u00e1 el del caso de las escuelas que eval\u00faan a sus docentes con un algoritmo que nadie entiende c\u00f3mo funciona pero que puede puntuar mal a profesionales admiradxs y con experiencia, al punto de dejarlxs sin trabajo. Y luego el caso de Hong Kong, donde el sistema de orden social basado en el reconocimiento facial y el \u201ccr\u00e9dito social\u201d hace m\u00e1s <em>naif<\/em> a\u00fan el cap\u00edtulo de Black Mirror, <em>Nosedive<\/em>, dej\u00e1ndolo retro. Este sistema, que merece un documental aparte, en <em>Coded bias<\/em> funciona por momentos como referencia positiva (\u201cal menos en China son honestos: no ocultan que lo usan para controlar el orden social\u201d) o como pesadilla orwelliana, pero se referencia muy poco y no parece haber posici\u00f3n tomada de parte del propio documental. S\u00ed se dedica buena parte a contar la historia de la agrupaci\u00f3n <em>Big brother watch<\/em>, encargada de luchar contra el reconocimiento facial arbitrario y sin regulaci\u00f3n en U.K., usado para averiguaci\u00f3n de antecedentes y posibles arrestos. Silkie Carlo y su equipo terminaron demostrando que el algoritmo falla un preocupante porcentaje de veces, lo que deriva en la detenci\u00f3n de personas identificadas err\u00f3neamente y en una nueva forma de abuso de las fuerzas represivas del Estado. La preocupaci\u00f3n esencial de este grupo brit\u00e1nico se centra en la falta de leyes que regulen el uso estatal de algoritmos.<\/p>\n\n\n\n<p>Volviendo a Joy, su preocupaci\u00f3n se enfoca en el sector privado, donde hay todav\u00eda menos regulaci\u00f3n. Entre las voces \u2013mayormente femeninas\u2013 que dan curso al relato del documental, est\u00e1n las de Cathy O\u00b4Neil, Amy Webb y Meredith Broussard autoras de obras de \u201cdenuncia\u201d de los algoritmos. M\u00e1s all\u00e1 de lo que sabemos de su utilizaci\u00f3n para mostrarnos \u201cm\u00e1s de lo que nos gusta\u201d en plataformas y en redes sociales (incluyendo experimentos de manipulaci\u00f3n de usuarios en relaci\u00f3n a votaciones), ya se usan algoritmos para seleccionar personal, cotizar seguros, calcular la capacidad crediticia, etc. Se suele decir que \u201cla decisi\u00f3n la tom\u00f3 una m\u00e1quina, no una persona\u201d queriendo implicar imparcialidad, incluso infalibilidad; lo simple que de tan obvio queda convenientemente oculto es que a los c\u00f3digos los programaron seres humanos (hombres blancos cis, qu\u00e9 sorpresa) con sus sesgos ideol\u00f3gicos, es decir, gente con sus propias ideas y visi\u00f3n del mundo que han creado algoritmos para que \u201caprendan\u201d partiendo de una base cuyo criterio est\u00e1 lejos de ser neutro o as\u00e9ptico. La mayor preocupaci\u00f3n actual es que estos algoritmos fueron creados para \u2013por decirlo de una manera bien <em>pulp<\/em>\u2013 aprender solos y cobrar autonom\u00eda. Lejos de imaginarios como el de <em>Her<\/em> (Spike Jonze, 2013) o <em>Ex machina <\/em>(Alex Garland, 2015), aqu\u00ed las inteligencias artificiales se vuelven cajas negras en las que nadie sabe con precisi\u00f3n por qu\u00e9 toman las decisiones que toman, reproduciendo al infinito (y sin control) los sesgos con los que fueron creadas. No es una independencia real ni tiene motivaci\u00f3n propia, como demuestra el caso de 2016 del bot de conversaci\u00f3n, Tay, que con solo 16hs en Twitter comenz\u00f3 a publicar mensajes nazis y mis\u00f3ginos.\u00a0<\/p>\n\n\n\n<p>&nbsp;La rebeli\u00f3n de los (ro)bots es mucho menos divertida que en la ciencia ficci\u00f3n, como sucede con casi todos los eventos del apocalipsis. En la vida ordinaria evitar\u00e1 que el banco te d\u00e9 un pr\u00e9stamo, cotizar\u00e1 m\u00e1s caro tu seguro, no podr\u00e1s comprar con tal beneficio tal producto, hasta quiz\u00e1 te deje sin trabajo o no te conceda audiencia para tu libertad condicionada, pero nada de batallas o enfrentamientos llenos de acci\u00f3n y r\u00e9plicas inteligentes. Lejos de haber visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannh\u00e4user, las inteligencias artificiales que manejan nuestras vidas resultan cajas bobas e impredecibles, por lo tanto, menos divertidas y mucho m\u00e1s peligrosas.<\/p>\n\n\n\n<p>Este documental tambi\u00e9n pone en evidencia nuestras posibles contradicciones con respecto a querer ser identificades o no. La gesta de Joy comienza porque descubre que el programa de reconocimiento facial no la reconoce, no \u201centiende\u201d su cara como una cara, y ella quiere cambiar eso, quiere ser identificada, como cada une de nosotres cuando nos etiquetamos en una foto. Al mismo tiempo el documental nos muestra en UK la historia de <em>Big brother watch,<\/em> donde el problema es convertirse en un \u201cfalso positivo\u201d (ser identificado err\u00f3neamente como alguien buscado por la polic\u00eda) y la situaci\u00f3n en China, donde el reconocimiento f\u00e1cil es controlado por el Estado y se usa para todo, desde tomar el subte hasta comprar en un kiosco (no ser identificado no es opci\u00f3n). M\u00e1s all\u00e1 de lo escalofriante de comprender c\u00f3mo podr\u00eda convertirse de inmediato en absoluto paria cualquier persona declarada \u201cenemiga del Estado\u201d en un sistema de esas caracter\u00edsticas, nos tientan las comodidades que ofrece; subyace el deseo de pertenecer. Parece que no hubieran servido de nada las advertencias de la CF sobre los sistemas de control basados en el manejo de informaci\u00f3n y quiz\u00e1s hasta hayan contribuido a naturalizar la idea. Parece que vivimos en esa tensi\u00f3n entre ser conscientes de los riesgos y saber que no est\u00e1 bueno seguir alimentando a la bestia del big data con informaci\u00f3n sobre nosotres, pero al mismo tiempo no querer quedarnos afuera e ir cediendo.<\/p>\n\n\n\n<p>Y hay una pregunta inevitable: \u00bfpor qu\u00e9 vemos esto en <em>Netflix<\/em>? Tanto una falla de la <em>matrix<\/em> como estudios de mercado imposibles de entender pueden acercarnos documentales o <em>films<\/em> indies como estos que por supuesto tendr\u00e1n intereses ocultos o no tan ocultos. Sabido es que <em>Amazon<\/em> y su plataforma de <em>streaming<\/em> es competencia feroz para la de la N roja as\u00ed que tampoco resulta muy sorprendente la apuesta por un producto documental, que pese a todo es bastante sincero y combativo. Hay informaci\u00f3n real sobre c\u00f3mo <em>pelear<\/em> contra el sesgo del algoritmo, se visibilizan agrupaciones de activistas, se ilumina el costado legal del asunto. A diferencia de otros productos de <em>Netflix<\/em> como el supuesto <em>Dilema de las redes sociales<\/em> (en ingl\u00e9s a\u00fan menos espec\u00edfico <em>The Social Dilemma<\/em>) que es un gran hacer \u201ccomo si\u201d denunciaran la forma en que los algoritmos de las redes sociales u otras plataformas \u201catrapan\u201d al usuario, <em>Coded bias <\/em>cuenta historias reales de gente real que ha sido v\u00edctima del sesgo y ha decidido combatirlo. En este sentido el documental de Kantayya resulta propositivo m\u00e1s all\u00e1 de <em>Netflix<\/em> y su propio algoritmo.<\/p>\n","protected":false},"excerpt":{"rendered":"<div class=\"mh-excerpt\"><p>Lectura r\u00e1pida de  Laura Ponce y Luc\u00eda Vazquez sobre el documental de Netflix que cuestiona los sesgos en los algoritmos.<\/p>\n<p> <a class=\"mh-excerpt-more\" href=\"https:\/\/sonambula.com.ar\/synco\/?p=1931\" title=\"Coded bias: prejuicio documentado\">[&#8230;]<\/a><\/p>\n<\/div>","protected":false},"author":1,"featured_media":1932,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[5,14],"tags":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v17.4 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Coded bias: prejuicio documentado - Proyecto Synco<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/sonambula.com.ar\/synco\/?p=1931\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Coded bias: prejuicio documentado - Proyecto Synco\" \/>\n<meta property=\"og:description\" content=\"Lectura r\u00e1pida de Laura Ponce y Luc\u00eda Vazquez sobre el documental de Netflix que cuestiona los sesgos en los algoritmos.  [...]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/sonambula.com.ar\/synco\/?p=1931\" \/>\n<meta property=\"og:site_name\" content=\"Proyecto Synco\" \/>\n<meta property=\"article:published_time\" content=\"2021-05-11T13:44:02+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-05-11T13:44:06+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/sonambula.com.ar\/synco\/wp-content\/uploads\/2021\/05\/coded-bias-movie-review-2020.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"1200\" \/>\n\t<meta property=\"og:image:height\" content=\"500\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Synco\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebSite\",\"@id\":\"https:\/\/sonambula.com.ar\/synco\/#website\",\"url\":\"https:\/\/sonambula.com.ar\/synco\/\",\"name\":\"Proyecto Synco\",\"description\":\"Observatorio de ciencia ficci\\u00f3n, tecnolog\\u00eda y futuros\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/sonambula.com.ar\/synco\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"es\"},{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/sonambula.com.ar\/synco\/?p=1931#primaryimage\",\"inLanguage\":\"es\",\"url\":\"https:\/\/sonambula.com.ar\/synco\/wp-content\/uploads\/2021\/05\/coded-bias-movie-review-2020.jpeg\",\"contentUrl\":\"https:\/\/sonambula.com.ar\/synco\/wp-content\/uploads\/2021\/05\/coded-bias-movie-review-2020.jpeg\",\"width\":1200,\"height\":500},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/sonambula.com.ar\/synco\/?p=1931#webpage\",\"url\":\"https:\/\/sonambula.com.ar\/synco\/?p=1931\",\"name\":\"Coded bias: prejuicio documentado - Proyecto Synco\",\"isPartOf\":{\"@id\":\"https:\/\/sonambula.com.ar\/synco\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/sonambula.com.ar\/synco\/?p=1931#primaryimage\"},\"datePublished\":\"2021-05-11T13:44:02+00:00\",\"dateModified\":\"2021-05-11T13:44:06+00:00\",\"author\":{\"@id\":\"https:\/\/sonambula.com.ar\/synco\/#\/schema\/person\/b433eadf728c36224fee48b67d3ca4ed\"},\"breadcrumb\":{\"@id\":\"https:\/\/sonambula.com.ar\/synco\/?p=1931#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/sonambula.com.ar\/synco\/?p=1931\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/sonambula.com.ar\/synco\/?p=1931#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Portada\",\"item\":\"https:\/\/sonambula.com.ar\/synco\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Coded bias: prejuicio documentado\"}]},{\"@type\":\"Person\",\"@id\":\"https:\/\/sonambula.com.ar\/synco\/#\/schema\/person\/b433eadf728c36224fee48b67d3ca4ed\",\"name\":\"Synco\",\"image\":{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/sonambula.com.ar\/synco\/#personlogo\",\"inLanguage\":\"es\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417982e64e8517c66f546625d675f2b6?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417982e64e8517c66f546625d675f2b6?s=96&d=mm&r=g\",\"caption\":\"Synco\"},\"url\":\"https:\/\/sonambula.com.ar\/synco\/?author=1\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Coded bias: prejuicio documentado - Proyecto Synco","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/sonambula.com.ar\/synco\/?p=1931","og_locale":"es_ES","og_type":"article","og_title":"Coded bias: prejuicio documentado - Proyecto Synco","og_description":"Lectura r\u00e1pida de Laura Ponce y Luc\u00eda Vazquez sobre el documental de Netflix que cuestiona los sesgos en los algoritmos.  [...]","og_url":"https:\/\/sonambula.com.ar\/synco\/?p=1931","og_site_name":"Proyecto Synco","article_published_time":"2021-05-11T13:44:02+00:00","article_modified_time":"2021-05-11T13:44:06+00:00","og_image":[{"width":1200,"height":500,"url":"https:\/\/sonambula.com.ar\/synco\/wp-content\/uploads\/2021\/05\/coded-bias-movie-review-2020.jpeg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Synco","Tiempo de lectura":"6 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebSite","@id":"https:\/\/sonambula.com.ar\/synco\/#website","url":"https:\/\/sonambula.com.ar\/synco\/","name":"Proyecto Synco","description":"Observatorio de ciencia ficci\u00f3n, tecnolog\u00eda y futuros","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/sonambula.com.ar\/synco\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"es"},{"@type":"ImageObject","@id":"https:\/\/sonambula.com.ar\/synco\/?p=1931#primaryimage","inLanguage":"es","url":"https:\/\/sonambula.com.ar\/synco\/wp-content\/uploads\/2021\/05\/coded-bias-movie-review-2020.jpeg","contentUrl":"https:\/\/sonambula.com.ar\/synco\/wp-content\/uploads\/2021\/05\/coded-bias-movie-review-2020.jpeg","width":1200,"height":500},{"@type":"WebPage","@id":"https:\/\/sonambula.com.ar\/synco\/?p=1931#webpage","url":"https:\/\/sonambula.com.ar\/synco\/?p=1931","name":"Coded bias: prejuicio documentado - Proyecto Synco","isPartOf":{"@id":"https:\/\/sonambula.com.ar\/synco\/#website"},"primaryImageOfPage":{"@id":"https:\/\/sonambula.com.ar\/synco\/?p=1931#primaryimage"},"datePublished":"2021-05-11T13:44:02+00:00","dateModified":"2021-05-11T13:44:06+00:00","author":{"@id":"https:\/\/sonambula.com.ar\/synco\/#\/schema\/person\/b433eadf728c36224fee48b67d3ca4ed"},"breadcrumb":{"@id":"https:\/\/sonambula.com.ar\/synco\/?p=1931#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/sonambula.com.ar\/synco\/?p=1931"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/sonambula.com.ar\/synco\/?p=1931#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Portada","item":"https:\/\/sonambula.com.ar\/synco\/"},{"@type":"ListItem","position":2,"name":"Coded bias: prejuicio documentado"}]},{"@type":"Person","@id":"https:\/\/sonambula.com.ar\/synco\/#\/schema\/person\/b433eadf728c36224fee48b67d3ca4ed","name":"Synco","image":{"@type":"ImageObject","@id":"https:\/\/sonambula.com.ar\/synco\/#personlogo","inLanguage":"es","url":"https:\/\/secure.gravatar.com\/avatar\/417982e64e8517c66f546625d675f2b6?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417982e64e8517c66f546625d675f2b6?s=96&d=mm&r=g","caption":"Synco"},"url":"https:\/\/sonambula.com.ar\/synco\/?author=1"}]}},"_links":{"self":[{"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/posts\/1931"}],"collection":[{"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1931"}],"version-history":[{"count":6,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/posts\/1931\/revisions"}],"predecessor-version":[{"id":1941,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/posts\/1931\/revisions\/1941"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=\/wp\/v2\/media\/1932"}],"wp:attachment":[{"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1931"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1931"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sonambula.com.ar\/synco\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1931"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}