Vivim en una societat que està plena de caixes negres per a nosaltres, mecanismes, sistemes, algoritmes, robots, codis, automatismes i dispositius que fem servir o ens afecten, però el funcionament dels quals ens és desconegut. La nostra seria una black box society (Frank Pasquale). Si l’actuació de sistemes intel·ligents té una influència en la vida quotidiana cada vegada més gran i més decisiva, també augmenta la necessitat d'equilibrar les asimetries cognitives que en resulten. Hem de construir tota una nova arquitectura de justificació i control on les decisions automàtiques puguin ser examinades i sotmeses a revisió crítica.
Qualsevol aspiració a reduir l'opacitat dels entorns en els quals ens movem ha de diferenciar els tipus d'intransparència. La primera forma d'intransparència és la produïda intencionalment, la que es deu a una voluntat deliberada d'ocultar, sense que això tingui necessàriament una dimensió reprotxable. Aquesta opacitat es pot explicar per la protecció de dades, el dret de propietat o per qüestions de seguretat i altres de relatives al bé comú.
Hi ha un altre tipus d'intransparència que s'explica per la configuració tècnica de certs dispositius. La seva complexitat tècnica produeix ignorància en els usuaris i asimetries cognitives entre ells i els experts. El procés de decisió dels sistemes intel·ligents és intransparent i opac, en bona mesura per motius tècnics, no per intencionalitat expressa dels seus dissenyadors.
El tercer tipus d'opacitat, la més complexa i la més específica dels nous dispositius intel·ligents, és la que no està amagada, sinó que sorgeix amb el desenvolupament, la inesperada, la que obeeix precisament a l’autonomia del seu caràcter intel·ligent. Estaríem parlant del black box de les coses emergents: uns dispositius la naturalesa dels quals, en la mesura que aprenen, està en una contínua evolució, que són inestables, adaptatius i discontinus a causa de la permanent reconfiguració.
La humanitat ha construït màquines que només eren enteses pels seus creadors, però no havíem construït mai màquines que operarien d'una manera que els seus creadors no entendrien. La intel·ligència artificial sembla implicar aquest tipus de novetat històrica. Que es tracti de sistemes autònoms no vol dir que siguin éssers lliures i racionals, sinó que tenen la capacitat de prendre decisions no pronosticables. Per això l'exigència de transparència pot xocar amb un límit infranquejable: no té sentit preguntar als programadors per entendre els algoritmes, com si la veritable naturalesa dels algoritmes estigués determinada per les intencions dels dissenyadors. Com coneixerem un dispositiu, la seva evolució i decisions, si ni tan sols els creadors de l'algoritme no saben exactament de quina manera funciona?
Tenint en compte les dificultats que planteja l'estratègia de la transparència, el debat ha girat els últims anys cap a una altra categoria: es tractaria de dissenyar una intel·ligència artificial explicable. Organitzacions i institucions públiques haurien d'explicar els processos i les decisions dels algoritmes d'una manera que sigui comprensible pels humans que els fan servir o que en resulten afectats. Segurament els mateixos criteris que valen per a les decisions humanes no es poden aplicar a les decisions dels sistemes, però sí que cal situar els sistemes intel·ligents en l’espai deliberatiu en el qual se sospesen decisions i arguments.
Aquesta supervisió dels sistemes intel·ligents sobrepassa la capacitat de la gent corrent, està a l’abast en principi dels experts, però fins i tot els especialistes tenen grans dificultats per comprendre certes decisions. Els programes que prenen decisions basades en enormes quantitats de dades són d’una gran complexitat. Els éssers humans individuals es troben sobrecarregats a l’hora de comprendre en detall el procés de la presa de decisions.
Únicament persones expertes estan en condicions d’entendre la lògica dels codis i els algoritmes, amb la qual cosa qualsevol operació de fer-los més transparents té efectes asimètrics, no possibilita una accessibilitat universal.
Pel que fa a això, l’article 22 de la regulació europea sobre protecció de dades introdueix un “dret a explicació” molt poc realista. Aquest dret reconeix als individus la capacitat d’exigir una explicació sobre com s’ha pres una decisió plenament automatitzada que els afecta. Però el problema fonamental quan parlem d’intel·ligibilitat és que la tasca d’auditar els algoritmes o d’explicar les decisions automàtiques s’ha de concebre com una tasca col·lectiva, no com un simple dret individual, en moltes ocasions de difícil realització. La idea d’un consentiment informat procedeix més aviat del dret privat que de la governança dels béns comuns, d’una llibertat negativa (en el sentit en el qual la formulava Isaiah Berlin), no des d’una perspectiva relacional, social i política.
No n’hi ha prou amb privatitzar la transparència i deixar en mans de la ciutadania el control sobre els sistemes intel·ligents –un control que amb prou feines poden dur a terme– i renunciar així a la regulació pública. Els subjectes individuals només podem gestionar els corrents massius de dades en una mesura limitada. No podríem decidir entorn de dades i decisions possibles si no és que ens són filtrades fins a unes dimensions que ens resultin manejables.
En comptes de prendre com a punt de partida un usuari independent, les pràctiques de la transparència només tenen sentit en un context social, com a senyals d’una disposició a retre comptes i generar confiança. - DANIEL INNERARITY - lavanguardia.
El artículo es largo.
ResponEliminaEn lineas generales, y para contestar, creo que las normativas llegan tarde, como siempre. Ya tienen todos los datos que desean, sólo han de ir incorporando los nuevos números que se introduzcan y, o los que se den de alta.
Estoy de acuerdo con eso de "libertad negativa", y con el Sr Berlin, una persona que sale poco a colación y del que deberíamos aprender un poco más.
Gracias
salut
les normatives no ens trauran de la nostra ignorància a l'hora d'intentar interpretar la intel·ligencia artificial, i per tant no la podrem controlar, ans al contrari, és ella qui ens controlarà, de fet ja ho està fent.
EliminaEstá al caer la siguiente mutación del "homo sapiens" : en unos años los niños nacerán con un puerto USB en la oreja.
ResponEliminaAsí nos ahorraremos documentación, papeleo y además, el sistema judiciál. Solo habrá que conectar al sospechoso de delito o de conducta inapropiada ( métase bajo este concepto todo aquello que le de la gana al poder establecido ), y hala, convicto y confeso, ¡¡ al talego con él !!
como el xip dels gossos, Rodericus, i el mòbil tambè incrustat, serem els 'homus digitalicus'
EliminaCoexistir más o menos pacíficamente medio batallando con las cajas negras sin rechistar es a todas luces insuficiente. "A este paso reventará el sistema...", a decir esto es a lo más que llegamos, pero la exigencia de explicaciones sobre la forma en que un algoritmo toma una decisión que atraviesa nuestras vidas resulta hoy día imprescindible. Los gobiernos están obligados a garantizar la transparencia de los procesos de decisión contenidos en las cajas negras. Otro asunto encastillado (con t) que requiere una regulación legal inmediata y efectiva más allá del Art. 22 del RGPD a nivel europeo que no es más que una declaración de intenciones (es decir, da igual tenerlo que no tenerlo)
ResponEliminael art.22 es un mero paripé de cara a la galeria, en realidad ni ellos controlan los algoritmos, y me temo que no puede ser de otra manera si se quiere mantenerlos. Una de las profesiones más buscadas en Silicon Valley últimamente és la de filósofo, en un intento de dotar de ética a la inteligencia artificial. Hal 2000 està al acecho.
ResponEliminaCierto, muy cierto. Y todo ello sin olvidar que en la actualidad el poder real está en los datos (esos que regalamos), porque valen más que cualquier otra mercancía. Los más ricos son los que los atesoran y, de momento, existe también un enorme vacío legal a su alrededor. A ver, filósofos y científicos, legisladores, sociólogos, antropólogos e ingenieros: ¿Qué hacemos con la infotecnología? ¿Cómo regulamos su funcionamiento?
EliminaNadie regulará la tecnologia, ella nos regulará a nosotros, en cierto modo ya lo está haciendo.
ResponEliminaMon chère poeta: Si tu veux, nous pouvons avoir le débat que tu recherches, avec la profondeur que tu sohuaites. Es un tema harto difícil que requiere una cobertura jurídica sin precedentes para proteger nuestra vulnerabilidad. Hay mecanismos jurídicos para conseguirlo (y si no, que se inventen) No debes preocuparte. Ne te laisses pas tromper par les apparences. To be continued (sobre todo porque tú, cosa que me encanta, traes el tema a colación periódicamente)
Eliminael mecanismo jurídico que regule buen regulador serÁ.
ResponEliminal'univers m'embarrasse et je ne puis songer que cette horloge existe et n'ait point d'horloger. Este es otro de mis temas recurrentes.
Voltaire no vale para todo. Respuesta incorrecta. La pregunta era si te interesaba profundizar un poco más, desde otra perspectiva, concretamente la jurídica, sobre el tema. Tengo algún artículo publicado y pretendía enviártelo. Da igual. Tant mieux. Cada uno a lo suyo, poeta.
EliminaNo, solo que es un tema el jurídico que no domino, pero podria enviarme el artículo, puede ayudarme en el tema.
ResponEliminaUn abrazo.