Sesgo y manipulación de agua del lado oscuro de la ai

Periodista ANASTACIO ALEGRIA
9 Lectura mínima

La inteligencia artificial (IA) ya afecta a varias áreas de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros teléfonos para el análisis de datos en la investigación médica. Su tecnología avanzada ofrece innumerables ventajas, como la automatización de tareas, la eficiencia, el procesamiento de la capacidad de grandes cantidades de grandes datos y ajustes de múltiples servicios.

Sin embargo, a medida que se extiende, sin límites aparentes, el uso y el desarrollo de esta tecnología, y no tanto los lados positivos obtenidos de las características que hacen que la IA sea especial: la toma de decisiones y su capacidad para ejecutarlos de forma independiente. Cuando un ser humano toma decisiones, normalmente menosprecia con un contexto ético (o, al menos, tiene esa capacidad de discernir entre la implementación buena y mala).

La IA, como el software, falta para ese contexto. Por lo tanto, es importante que nosotros, las personas, acompañemos los grandes beneficios de esta tecnología, aplicando nuestra ética en estos casos en función de los casos.

Pero veamos brevemente, que son algunos de los principales riesgos actuales y por qué hay más y más votos que lloran sobre la necesidad de una regulación más grave en el laboratorio ético a veces.

Ética para máquinas

Hubo muchas conversaciones sobre el algoritmo de Amazon que estaba en tiempo discriminatorio para seleccionar un programador de software de trabajo de perfil. Parece que él solo admitió hombres jóvenes y blancos, automáticamente rechazó el resto. Este hecho saltó en su día en los periódicos, fomentan una amenaza que podría significar el uso de IA en ciertos procesos, por ejemplo, la elección de los recursos humanos. Era solo el principio de conciencia de algún sesgo de algoritmo de Asociados de Riesgo.

Y los sistemas aprenden de los datos. Y si estos datos reflejan los prejuicios existentes en la sociedad, existe el riesgo de profundizar o incluso deteriorar estos sesgos, especialmente sin una supervisión adecuada. Este problema ya se ha manifestado, en varias ocasiones, en los sistemas de contratación, préstamos y sistemas judiciales.

En 2019, por ejemplo, se sabía que el algoritmo de crédito de la tarjeta de Apple, administrado por Goldman Sachs, otorgó límites de crédito significativamente más bajos en mujeres en comparación con los hombres, incluso si compartían los mismos ingresos y perfiles de crédito.

Al combatir estos desafíos, y no es diferente de otras tecnologías de alta influencia como el automóvil, en su día o Internet. También son necesarios para regular para evitar consecuencias negativas. En este caso y teniendo en cuenta su rápida evolución, no hay duda de regulaciones dinámicas y adaptativas.

Por otro lado, se establece la cuestión de la responsabilidad en caso de errores o accidentes que surgen y los sistemas. Sin un marco legal claro, determinar quién es responsable puede significar un desafío. Un ejemplo claro es un automóvil autónomo. ¿Quién podría culpar si golpeó al peatón? Aunque este problema ya se discutió ampliamente, todavía no hay una respuesta completamente unánime, a excepción de las conversaciones sobre la “responsabilidad conjunta” entre la compañía que desarrolla un automóvil (y su software de IA) y, por supuesto, el conductor.

Regulación del pañal

En la mayoría de los países, la IA se encuentra en fases incipientes. En los Estados Unidos, por ejemplo, las regulaciones eran más sectoriales y dependen de los estados individuales, aunque existen ciertos marcos federales en ciertas áreas, como la privacidad o la discriminación.

Desde un punto de vista global, el desafío radica en equilibrar la innovación con la protección de los ciudadanos. La carta de los derechos digitales que el gobierno español inició 2021. Ejemplo de año de esta tarea durante la conciencia y la prevención ciudadana.

Sin embargo, todavía necesita actuar para realmente afectarlo, y esa no es una tarea fácil. La regulación excesiva podría sofocar la innovación, mientras que la falta de regulación y medidas concretas y prácticas podría dejar a las personas desprotegidas de varias maneras.

Además de estas líneas, la Unión Europea aprobó, en agosto de 2024. Año, inteligencia artificial, en un esfuerzo conjunto entre los organismos reguladores europeos, las empresas y los expertos en la sociedad civil. Su objetivo: proteger los derechos básicos de las personas, garantizar la transparencia en la toma de decisiones y los sistemas y establecer la responsabilidad humana y los mecanismos de control humano adecuados, entre otros temas básicos.

No tienen la intención de regular la tecnología en sí, ya que esto significaría un problema para su implementación y desarrollo en la industria de la UE, sino casos específicos que pueden ser riesgos. Existen uso y desarrollo prohibidos (como puntaje social), alto riesgo (aquellos de cuya aplicación puede afectar los derechos básicos de las personas, como el uso del lugar de trabajo), los de riesgos medianos (pasivos de transparencia) y compromisos de bajo riesgo (libres de riesgos) (automatismos sin riesgos).

Manipulación, uno de los principales riesgos reales

Uno de los fenómenos más claros que ya ha comenzado a ver es la manipulación, esa tendencia a transferir ideas que no se solidifican, incluso inconscientemente.

El empleo, principalmente a través de recomendaciones, comienza a influir en las impulsos de la toma de decisiones de todos los consumidores más pasivos. Pero en algunas líneas, uno podría considerar quién “el verdadero culpable” de la situación que podría conducir a una reducción en la democracia actual. ¿Es la inteligencia artificial, como la tecnología? ¿Son las máquinas que “toman decisiones” para nosotros y fomentan el consumo principal de nosotros?

Software sin intención ni responsabilidad

Primero, y los sistemas son software, es decir, programas de computadora, con propiedades específicas. Por lo tanto, sin responsabilidad ni intención. Sí, sin embargo, tienen, sin embargo, empresas o agencias, ambas públicas, como privadas, que los usan o desarrollan. La aclaración de este número es crucial para detener la personificación en las responsabilidades humanas de IA con el uso de cualquier tecnología.

Por otro lado, tenemos una cuestión de la preparación real de nuestra sociedad para asumir la influencia de la IA. Aunque comenzó a democratizar su uso a partir de la salida del chatgpt, el conocimiento general de sus consecuencias en nuestros días sigue siendo muy vago.

Es necesario que las potencias públicas, las empresas y los centros educativos participen en la revolución cultural y educativa que fomenta el impacto de la IA del conocimiento y el espíritu crítico de las personas. De lo contrario, la era de la inteligencia artificial podría estar relacionada con esas manipulaciones masivas inconscientes.

En resumen, y tiene un gran potencial transformador. Sin embargo, como cualquier herramienta poderosa, también implica oportunidades y peligros. Aunque hay esfuerzos para desarrollar una regulación sólida, todavía hay un largo camino para garantizar su uso seguro y ético en nuestra sociedad.

Por supuesto, debemos recordar que el peligro no es AI, en sí mismo, sino el uso que nosotros, las personas. Es crucial aumentar la conciencia del riesgo popular y profesional. Por otro lado, a pesar de que no es una opción rechazar esta tecnología en nuestra vida, su aplicación y su desarrollo ético y responsable deben fomentarse del diseño, es decir, del enfoque inicial del proyecto con IA. Del mismo modo, el monitoreo debe realizarse durante su ciclo de vida. De esta manera, lograremos un impacto positivo de esta tecnología revolucionaria.

La versión original de este artículo fue publicada en la revista Telos, por Foundation Telephone.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo