La masa de transporte del sudeste de Pensilvania pilotó una nueva herramienta para realizar Filadelfia en 2023. Años: cámaras AI-AI-A-Motor montadas en siete de sus autobuses. Los resultados fueron actuales y dramáticos: en solo 70 días, las cámaras marcaron más de 36,000 autos que bloquean las barras de autobús.
Los resultados del piloto dieron a la gestión del transporte, también llamado SEPTA, datos valiosos en la obstrucción de los autobuses y las ideas en el papel de la tecnología para combatir estos problemas.
En mayo de 2025. Año, la Autoridad de Estacionamiento de Septos y Filadelfia lanzaron oficialmente un programa en toda la ciudad. Más de 150 autobuses y 38 carros en la ciudad están equipados con placas de escaneo de sistemas de inteligencia artificiales similares para posibles lesiones. El sistema utiliza cámaras motores AI-AI que utilizan la tecnología de visión por computadora para detectar vehículos que bloquean las barras de autobuses y las placas de escaneos para identificar vehículos que violen las reglas. Si el sistema indica una posible violación, el revisor humano confirma antes de que se emita finamente: 76 US $ en el centro de la ciudad, 51. Años.
Este volcado viene como si Septa se enfrente a una deficiencia matrimonial de 213 millones de dólares, con una reducción inmediata en el servicio y el montañismo.
Soy profesor de sistemas de información y director académico Lebov College of Business Center for Apliced AI y Business Analytics en la Universidad Vrecel. La investigación del Centro se centra en cómo las organizaciones usan la IA y en qué significa confiar, justicia y responsabilidad.
En la encuesta reciente, el Centro se realizó con un líder empresarial de 454 de la industria, incluidas la tecnología, las finanzas, la atención médica, la producción y el gobierno, nos hemos recuperado y, a menudo, nos hemos rodado más rápido de lo que las autoridades necesarias necesitarias para garantizar justas y transparentes.
Esta brecha entre eficiencia y supervisión es particularmente común en las organizaciones del sector público, según nuestra investigación.
Es por eso que creo que es importante separar para administrar su IA, el sistema de ejecución cuidadosamente para dar confianza pública, al mismo tiempo minimizando los riesgos.
Justicia y transparencia
Cuando los automóviles bloquean la barra de autobús, obstruyen el tráfico. Los encuestados pueden estropear el día de una persona, causando conexiones perdidas o para llegar tarde a los pasajeros. Puede dejar que los ciclistas sientan que no pueden confiar en el sistema de tránsito.
Entonces, si AI CompreCena ayuda a facilitar esas cintas, es una victoria. Los autobuses se mueven más rápido y los comunican más rápido.
Video promocional para Turba para el transporte en el sureste de Pensilvania y el nuevo sistema de Camera Filadelfia Estacionamiento AGERI que revela autos que bloquean las barras de autobuses.
Pero aquí están el problema: las buenas intenciones no funcionan si el sistema se siente injusto o poco confiable. Nuestra investigación también encontró que más del 70% de las organizaciones encuestadas no confían completamente en sus datos. En el contexto de la aplicación pública, ya sea una agencia de tránsito o estacionamiento, es una señal de advertencia.
Sin datos confiables, el boleto de energía puede ser abolido efectivamente en errores costosos, como citas emitidas erróneamente que deben devolverse, perder errores en la dotación de personal e incluso desafíos legales. La confianza pública es importante aquí porque es más probable que las personas sigan las reglas y acepten sanciones cuando el proceso lo considera preciso y más transparente.
Además, este hallazgo de nuestra investigación realmente me llamó la atención: solo el 28% de las organizaciones informan que el modelo de gestión está bien establecido. Los modelos de gestión son jardineros que conducen y sistemas confiables y armonizados con valores humanos.
Es suficiente preocupante cuando las empresas privadas usan IA. Pero cuando a una agencia pública le gusta ver a SEPTA mirando la placa del conductor y envía una tarjeta de conducir, el papel es más alto. La implementación pública lleva a cabo autoridad legal y requiere un mayor nivel de equidad y transparencia.
El efecto de las pegatinas de IA
Se puede establecer, “¿No es este sistema de boletos al igual que la luz roja o la velocidad?”
Técnicamente, sí. El sistema revela reglas de ruptura y evidencia de revisión humana antes de emitir la cita.
Pero simplemente etiquetar la tecnología como AI puede transformarse como se hace. Esto se conoce como el efecto del encuadre.
Solo estoy llamando a algo y fue impulsado que la gente lo crea menos. La investigación mostró si el sistema de evaluación de trabajos o empleo de trabajadores para atraer más escepticismo exactamente cuándo se mencionó la IA que cuando no. La gente escucha “IA” y supone que la máquina piensa en llamadas, por lo que comienzan a buscar fallas. Incluso si piensan que también está en lo correcto, la confianza no se cierra.
Esta percepción significa que las agencias públicas deben alinear la aplicación de IA con transparencia, medidas de protección visibles y formas simples de causar errores. Estas medidas aumentan la confianza en la implementación de la IA.
Vimos lo que podría salir mal y qué tan rápido se puede erosionar, cuando un sistema para la ejecución de leyes basadas en la IA no se derrumbó. A finales de 2024. Año, y la cámara en el poder de tráfico metropolitano en Nueva York, tergiversó miles de estacionamientos, incluidos casi 900 cajas en los que los conductores realmente siguieron las reglas y estacionaron legalmente.
Incluso si tales errores son raros, pueden dañar la confianza pública en el sistema.
Generar confianza en el sistema
La Organización para la Cooperación y el Desarrollo Económico, los Estándares y las Políticas Internacionales de establecimiento del cuerpo en decenas de países, descubrieron que las personas probablemente aceptan decisiones sobre el acuerdo, cuando toman esas decisiones toman y tienen una forma clara y asequible de causar errores.
En resumen, y la herramienta de implementación debería funcionar para las personas, no solo en ellas. Para SEPTA, eso podría significar lo siguiente:
– Apoyo a las reglas claras del autobús y cualquier excepción, para que las personas sepan lo que está permitido.
-Pre preparar medidas de protección, como el hecho de que cada violación del autobús revisa el personal del órgano de estacionamiento de Filadelfia antes de emitir la tarjeta.
-Progotive el procedimiento de apelación inmediata con la revisión de la gerencia y el derecho a apelar.
– Información del seguro, como cuántas violaciones y quejas se procesan.
Estos pasos indican que el sistema es justo y responsable, ayudándolo al pasar de sentirse como una máquina de boletos a un servicio público que las personas pueden confiar.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.