Parece bueno en el camino para ser imbuido. Escuchas que se usa desde AI, en algún lugar detrás de la escena, con un médico. Dudas que haya jugado un papel en el reclutamiento de decisiones durante tu última búsqueda de trabajo. A veces, tal vez incluso a menudo, úsalo tú mismo.
Estas desigualdades hacen la pregunta: ¿Las minorías de género y raciales y las personas con discapacidad tienen actitudes más negativas hacia la IA que la población general de los Estados Unidos?
Soy un estudiante de computación social que estudia cómo las personas y las comunidades marginadas usan tecnologías sociales. En el nuevo estudio, mis colegas Samuel Reija Maivorm, Alexis Shore Intergber, Nazanin Andalibi y yo encuestamos a más de 700 personas en los Estados Unidos, incluida una muestra de representante nacional y un agotamiento intencional de las personas trans, irrelevantes, discapacitadas y minoritarias raciales. Preguntamos a los participantes sobre sus actitudes generales hacia la IA: si creían que mejorar sus vidas o el trabajo, lo consideraban positivo y si esperaban que lo usara en el futuro.
Los resultados revelan una sorprendente divisiones. Los participantes de Transgoden, Nebangiri y discapacitados informaron en promedio, en promedio, significativamente más actitudes negativas hacia la IA que sus cizgénero y noisable. Estos resultados muestran que cuando las minorías nativas y las personas con discapacidades son necesarias para usar sistemas de inteligencia artificial, como en el lugar de trabajo o en los entornos de salud, pueden hacerlo, que son preocupaciones o dudas serias. Estos hallazgos causan la narrativa predominante de la industria técnica que los sistemas e inevitables y beneficiarán a todos.
La percepción pública juega un papel poderoso en la configuración a medida que AI fue desarrollada, adoptada y regulada. Vision AI como un bien social disminuye si usan principalmente a aquellos que ya tienen poder. Cuando las personas se necesitan para usar la IA, al mismo tiempo que no les gusta o no les gusta, puede limitar la participación, erosionando las desigualdades en congénita, compleja y compleja.
Paul, discapacidad y actitudes
Comprender a las personas en nuestro estudio tuvo las actitudes más negativas y más negativas. Las personas transgénicas en su conjunto, incluidos los hombres trans y las mujeres trans, también expresaron significativamente las actitudes y las actitudes. Entre el cisgénero, aquellos cuya identidad de género corresponde a sus nacimientos: las mujeres informaron más puntos de vista negativos que los hombres, la tendencia hace eco de la investigación anterior, pero nuestro estudio agrega una dimensión importante y la disregión y las transpacias.
Los participantes en discapacidades también tuvieron puntos de vista significativamente más negativos que los participantes incompetentes, especialmente aquellos que son neuródicamente o tienen condiciones de salud mental.
Estos hallazgos están en línea con la creciente investigación de investigación que muestran ambos sistemas a menudo utilizados mal, aumentan la discriminación contra o dañan a Trans y a las personas con discapacidades. Específicamente, las identidades que desafían el choque con sistemas de IA que están especialmente diseñados para reducir la complejidad en categorías rígidas. Al hacerlo, y los sistemas simplifican las identidades y pueden copiar y fortalecer el sesgo y la discriminación, y el aviso de las personas.
Imagen más compleja para la raza
A diferencia de nuestros hallazgos sobre género y discapacidad, descubrimos que las personas y los participantes negros tenían actitudes más positivas hacia la IA que los participantes blancos. Este es un hallazgo sorprendente y complejo, ya que la investigación anteriormente se documenta intensamente por el sesgo racial y los sistemas, desde algoritmos discriminatorios para el empleo hasta la supervisión desproporcionada.
Nuestros resultados no sugieren que la IA funcione bien para las comunidades negras. En cambio, pueden reflejar la apertura pragmática o de esperanza a la tecnología potencial, incluso ante el daño. La investigación futura podría examinar cualitativamente el equilibrio ambivalente de crítica y optimismo en individuos negros alrededor de la IA.
Los participantes negros en el estudio informaron actitudes más positivas sobre la IA que en la mayoría de los datos demográficos, a pesar de tratar con el sesgo algorítmico. Laurence Dutton + a través de Getti Images Politics and Technology
Si las personas marginadas no creen en AI, y con una buena razón, ¿qué pueden hacer las políticas y los fabricantes de tecnología?
Primero, proporcione una opción de consentimiento significativo. Esto les daría a todos la oportunidad de decidir si y cómo se usa en sus vidas y cómo. El consentimiento significativo requeriría que los empleadores, los proveedores de salud y otras instituciones descubran cuándo y cómo usan la IA y brindan a las personas las oportunidades adecuadas para excluir sin penalización.
Luego especifique la transparencia de los datos y la protección de la privacidad. Esta protección ayudaría a las personas a comprender dónde provienen los datos de quien informa la IA y los sistemas, qué sucederá con sus datos después y recopilarlos y cómo se protegerán sus datos. La privacidad de los datos es particularmente crítica para las personas marginadas que ya han experimentado una supervisión algorítmica y abuso de datos.
Además, en la construcción de sistemas de IA, los desarrolladores pueden tomar medidas adicionales para probar y evaluar el impacto en los grupos marginados. Esto puede incluir enfoques participativos que incluyen comunidades afectadas en el diseño del sistema de IA. Si la comunidad dice que no AI, los desarrolladores deberían estar dispuestos a escuchar.
Finalmente, creo que es importante reconocer lo que nos dicen lo negativo y las actitudes entre los grupos marginados. Cuando las personas tienen un alto riesgo de daño algorítmico, como personas y personas con discapacidad y aquellas que son las más permisivas, es una indicación para que los diseñadores, desarrolladores y responsables políticos de IA revisen sus esfuerzos. Creo que el futuro construido en la IA debería explicar que las personas que ponen en riesgo.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.