Manifest sobre “Feminisme, Pacifisme i Intel·ligència Artificial”

 https://oeiac.cat/manifepaia/


  1. Assegurar que les perspectives feministes interseccionals guiïn les decisions de disseny i funcionalitat de la IA, promocionant la justícia i l’equitat.
  2. Utilitzar dades i models que representin equitativament totes les persones i interseccions, evitant la simplificació i estereotipació.
  3. Implementar directrius que assegurin que les aplicacions d’IA promoguin la igualtat de gènere i combatin el sexisme, amb especial èmfasi en la protecció de la infància, així com la resta d’eixos d’opressió i discriminació.
  4. Fomentar la inclusió de persones racialitzades de diferents procedències i capacitats, enfortint la col·laboració i la innovació responsable en els processos de disseny i desenvolupament de la IA així com en la seva governança.
  5. Utilitzar de forma sistemàtica mètodes de detecció i correcció de biaixos per evitar la discriminació de persones a través d’auditories i controls ex-ante i ex-post.
  6. Garantir que totes les àrees del desenvolupament de la IA, des de la investigació fins a la comercialització, tinguin una representació més plural i equitativa de gènere, d’edat, ètnica i cultural.
  7. Crear espais segurs i accessibles a les comunitats subrepresentades per tal d’expressar i influir a través de les seves opinions en el disseny, desenvolupament i governança de la IA.
  8. Desenvolupar iniciatives que proporcionin recursos, formació i suport financer específic a l’emprenedoria de grups sotmesos a discriminació històrica en el camp tecnològic de la IA.
  9. Assegurar que cada projecte d’IA es desenvolupi amb un compromís explícit cap a la no agressió o impacte negatiu per a la pau i els drets humans, evitant contribuir a conflictes o violència de qualsevol forma.
  10. Incloure cursos i tallers que ensenyin a les persones desenvolupadores d’IA els principis del pacifisme, la noviolència, els drets humans, la no discriminació, la resolució noviolenta de conflictes, així com la importància de considerar-los en tot moment.
  11. Establir una prohibició clara en el desenvolupament, venda i ús de sistemes d’IA aplicats a armament que pugui actuar de manera autònoma, per evitar la contribució a la violència armada i a la gestió violenta dels conflictes.
  12. Aprofitar la capacitat d’anàlisi de la IA per identificar i alertar sobre potencials situacions de violència o emergències humanitàries tenint en compte el ple exercici dels drets humans.
  13. Organitzar fòrums i conferències internacionals que reuneixin persones de diferents àmbits per discutir com la tecnologia d’IA pot ser utilitzada per fomentar la pau i no al contrari, per així prevenir la violència a escala mundial.
  14. Encoratjar i donar suport a la creació de coalicions feministes i pacifistes per un desenvolupament i governança de la IA que promogui la igualtat i la resolució noviolenta de conflictes.
  15. Establir mecanismes de registre per tal de fer públiques les metodologies, les fonts de dades i els processos d’algorismes utilitzats en tot desenvolupament d’IA.
  16. Implementar sistemes que registren cada acció i decisió presa per sistemes d’IA per permetre auditories externes completes.
  17. Establir comitès d’ètica independents que revisin i aprovin tots els nous sistemes d’IA per assegurar que estan establerts amb estàndards ètics i de drets humans elevats.
  18. Garantir que les persones usuàries tenen control sobre les seves dades i que poden revocar elles mateixes el consentiment en qualsevol moment, incloent-hi les eines necessàries per tal que ho puguin fer les mares, pares o tutors en cas de menors.
  19. Aplicar les tecnologies de seguretat més avançades per protegir les dades de les persones usuàries de qualsevol accés o ús no autoritzat.
  20. Exigir mesures per a la ciberseguretat feminista per lluitar contra la violència masclista i misògina a les xarxes, per la privacitat d’informació o l’accés igualitari a l’ús, però també al desenvolupament, de la tecnologia.
  21. Assegurar que tots els projectes d’IA compleixin amb les lleis vigents i els estàndards ètics més garantistes de protecció de dades a nivell local i internacional.
  22. Informar a les persones usuàries quan interactuen amb el contingut generat per IA i explicar les implicacions d’aquesta interacció.
  23. Crear un codi de conducta obligatori de responsabilitat civil que totes les persones professionals d’IA hagin de seguir.
  24. Implementar processos de validació que assegurin que els productes d’IA compleixin amb tots els requisits legals i tècnics abans d’estar disponibles al mercat.
  25. Garantir el compromís amb normativa sobre drets humans i d’IA per tal de protegir i promoure els drets i llibertats de les persones.
  26. Analitzar com la IA pot perpetuar o mitigar desigualtats existents i incloure aquesta anàlisi com a part de l’estudi d’impacte per avançar en un ús més just de la tecnologia.
  27. Incorporar estudis de cas i exemples reals per il·lustrar com la IA pot afectar de forma diferent segons el context socioeconòmic i cultural. 
  28. Articular mecanismes que garanteixin la participació activa de les comunitats afectades per tal que aquestes puguin expressar les seves necessitats i preocupacions, i puguin influir directament en el desenvolupament de la IA.
  29. Implementar sistemes que monitoritzin i reportin l’impacte social de la IA amb un enfocament global, especialment en comunitats vulnerabilitzades, i tenint en compte les conseqüències invisibilitzades.
  30. Establir lleis que garanteixin compensacions o mesures correctores per a les comunitats que puguin ser negatives impactades per projectes d’IA.
  31. Oferir beques i programes de mentoratge dissenyats per augmentar la representació de grups infrarrepresentats en camps tecnològics.
  32. Reclamar mesures de respecte dels drets laborals de les persones que treballen en l’entrenament d’aquestes tecnologies, normalment dones a països del Sud global.
  33. Crear fòrums regulars on persones professionals de la IA pugui rebre retroalimentació directa del públic i altres grups d’interès.
  34. Establir programes que no només ensenyin habilitats tècniques amb la IA, sinó que també promoguin una comprensió i promoció de la justícia social i justícia global.
  35. Desenvolupar currículums interdisciplinaris que equipin l’estudiantat amb les eines per abordar qüestions ètiques i de drets humans complexes dins de la tecnologia.
  36. Emfatitzar la necessitat de mantenir el control humà sobre les decisions crítiques, especialment en àrees com la justícia penal o la gestió de recursos.
  37. Analitzar casos on la IA ha servit tant per promoure la igualtat de gènere com per posar-la en risc, i estratègies per alineament amb aquests moviments.
  38. Promoure una visió crítica sobre com la tecnologia és dissenyada i implementada, fomentant una comprensió més profunda de les conseqüències materials amb una visió ecofeminista.
  39. Establir una moratòria de centres de dades fins que aquests implementin estratègies d’eficiència energètica i operin amb energies renovables sense monopolització de les mateixes.
  40. Prohibir la ubicació de centres de dades en espais i territoris on hi ha una clara i evident sequera i escassetat d’aigua que afecta a les mateixes comunitats que hi viuen i als seus hàbitats naturals.
  41. Realitzar avaluacions d’impacte ambiental de manera regular, introduint garanties de compliment en aquestes mateixes a través d’actors independents per a qualsevol nova tecnologia d’IA o actualització.
  42. Crear directrius clares que assegurin que les dades utilitzades en IA respecten els drets d’autor i la propietat intel·lectual.
  43. Requerir que els programes, actuacions, regulacions o qualsevol tipus d’iniciativa vinculada a la IA incorpori les evidències científiques amb impacte social per prendre decisions científicament informades que contribueixin a la igualtat de gènere i la erradicació de la violència en l’ús de la IA.
  44. Promoure pràctiques que minimitzin la petjada de carboni i optimitzin l’ús de recursos en la producció i manteniment de tecnologies d’IA.
  45. Requerir que les empreses divulguin l’impacte ambiental de les seves operacions d’IA, el consum d’energia, aigua i les emissions de carboni, de manera que les persones usuàries coneguin l’impacte ambiental del seu ús.
  46. Promocionar iniciatives que utilitzin la IA per millorar l’accés a recursos i oportunitats per a comunitats excloses, sense generar noves exclusions digitals.
  47. Destinar recursos a projectes d’IA que ofereixen solucions pràctiques a problemes quotidians, com l’optimització de l’eficiència energètica.
  48. Promoure col·laboracions internacionals que permetin el flux de coneixements i recursos entre països i cultures, evitant la concentració de saber tecnològic.
  49. Establir polítiques que incentivin la participació de petites i mitjanes empreses, startups, institucions acadèmiques i organitzacions sense ànim de lucre en la investigació, monitoratge i el desenvolupament de la IA. 
  50. Enfortir organitzacions que treballin en l’àmbit català en la justícia algorítmica i la ciberseguretat des de coordenades feministes, sensibilitzar públics específics (periodistes, educadores, etc.) i promoure la generació de dades feministes amb sistemes d’informació consistents.