De los drones que entregan suministros médicos para asistentes digitales que realizan tareas diarias, y los sistemas de electricidad se incorporan a la vida cotidiana. Los creadores de estas innovaciones prometen beneficios transformadores. Algunas personas pueden parecer aplicaciones convencionales como Chatggpt y Claude parecen magia. Pero estos sistemas no son mágicos, ni son estúpidos: pueden y regularmente no funcionan como se pretende.
Los sistemas de IA no se pueden seguir debido a deficiencias de diseño técnico o datos previos al tablero. También pueden sufrir vulnerabilidad en su código, que pueden usar hackers maliciosos. Aislar la causa del fracaso de la IA es imprescindible para arreglar el sistema.
Pero y los sistemas suelen ser opacos, incluso sus creadores. El desafío es investigar los sistemas de IA después de fallar o caer a las víctimas para atacar. También hay técnicas de inspección del sistema, pero necesitan acceso a datos y sistemas internos. Este enfoque no está garantizado, especialmente los investigadores forenses invitados a determinar la causa de la falla de propiedad de la IA, lo que hace imposible una investigación.
Somos informáticos que estudian forenses digitales. Nuestro equipo del Instituto de Tecnología de Georgia construyó un sistema, y un psiquiátrico o AIP, que puede recrear el escenario en el que la IA no pudo determinar qué era para determinar qué salió mal. El sistema se ocupa de los desafíos de la recuperación forense de IA y la “reanimación” del sospechoso y el modelo, por lo que puede probarse sistemáticamente.
Inseguridad ai
Imagine autocontratar un infierno de autos sin razón fácil y luego se bloquea. Los registros y los datos de los sensores pueden sugerir que la cámara defectuosa ha causado AI de que la IA es un signo de viaje malinterpretado como un comando de giro. Después de una falla crítica, como caídas de vehículos autónomos, los investigadores deben determinar exactamente qué causó un error.
¿La colisión ha lanzado un ataque malicioso a la IA? En este caso hipotético, el ambiente de la cámara podría ser el resultado de una vulnerabilidad o error de seguridad en su software que aprovechó al hacker. Si los investigadores encuentran tal vulnerabilidad, tienen que determinar si causó la caída. Pero tomar esa decisión no es una pequeña hazaña.
Aunque existen métodos forenses para recuperar alguna evidencia de fallas de drones, vehículos autónomos y otros llamados sistemas cibernéticos, ninguno puede registrar marcas necesarias para explorar la IA en ese sistema. AIS avanzado puede incluso actualizar su decisión, y por lo tanto, marca, lo que es imposible explorar los modelos más modernos con los métodos existentes.
Los investigadores están trabajando para hacer que la IA sea más transparente, pero si estos esfuerzos transforman el campo, habrá necesidad de herramientas forenses para al menos comprender las fallas de la IA. Patología para AI
Y PsichiTrey aplica una serie de algoritmos forenses para aislar datos detrás de la toma de decisiones y los sistemas. Estas piezas se vuelven a compilarse en un modelo funcional realizado de manera idéntica por el modelo original. Los investigadores pueden “reanimar” la IA en un entorno controlado y probarlo con entradas maliciosas para ver si muestra un comportamiento dañino o oculto.
Y Psichiatri toma la entrada de una imagen de memoria, amargas y bytes cargadas cuando y operativas. La imagen de memoria en el momento de la caída en el escenario autónomo del vehículo contiene marcas cruciales en condiciones internas y procesos de toma de decisiones y controlada por el vehículo. Con y un psiquiatra, los investigadores ahora pueden elevar el modelo de IA correcto de la memoria, diseccionar sus bits y bytes y cargar el modelo en un entorno de prueba seguro.
Nuestro equipo probó y psiquiatría a los 30 y modelos, 24 de los cuales fue un “partido” intencional para producir mal uso bajo ciertos desencadenantes. El sistema podría haber recuperado, rehest y probar con éxito cada modelo, incluidos los modelos comúnmente utilizados en escenarios realistas, como letreros de calles en vehículos autónomos.
Hasta ahora, nuestras pruebas indican que la psiquiatría de IA puede resolver efectivamente el misterio digital detrás del fracaso, como las caídas autónomas de automóviles que anteriormente han dejado más preguntas que respuestas. Y si no encuentra vulnerabilidad en el sistema de IA, y la psiquiatría permite a los investigadores excluir la IA y buscar otras causas, como la cámara defectuosa.
No solo para vehículos autónomos
El algoritmo principal y la psiquiatría son genéricos: se centra en los componentes universales que todos los modelos de IA deben tomar decisiones. Esto permite que nuestro enfoque se derrame fácilmente en cualquier modelo de IA que use marcos populares y de desarrollo. Cualquier persona que trabaje en una encuesta de una posible IA puede usar nuestro sistema para evaluar el modelo sin el conocimiento previo de la arquitectura correcta.
Ya sea AI Bot que produzca recomendaciones de productos o un sistema que ejecute la flota de drones autónomos, y la psiquiatría puede recuperarse y redirigir la IA para su análisis. Y Psychiatry es un código abierto por completo para cualquier investigador que lo use.
Y la psiquiatría también puede servir como una herramienta valiosa para realizar auditorías y sistemas antes de que ocurran problemas. Con las agencias gubernamentales de la aplicación de la ley sobre la protección de los servicios de protección de los niños, la integración y los sistemas en sus flujos de trabajo, y las auditorías se están convirtiendo en supervisión conjunta del nivel estatal. Utilizando herramientas como AI Psychiatry en mano, los auditores pueden aplicar una metodología forense consistente a través de diferentes plataformas de IA e implementación.
A la larga, pagará dividendos significativos y por los creadores y sistemas y se ve afectado por las tareas que realizan.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.