En la antigua Grecia, cuando alguien quería conocer su futuro, fue a Oracle Delfia y le preguntó a Sibila sobre su futuro. No se tomarán varias ocasiones, estos problemas se tomaron en torno al estado de salud de las partes interesadas.
También en la antigua Grecia, Hipócrates, el precursor de la medicina moderna vivió. Y en más de dos mil años que nos separan de sus enseñanzas, la medicina ha progresado espectacularmente hasta hoy, cuando se va de un médico, es parte de nuestra rutina.
Del Dr. Google al dr. Chatgpt
Pero los avances tecnológicos actuales nos permiten preservar y viajar a Grecia y desplazarse para consultar y le pregunto directamente a DR. Google. Retirada como un reemplazo del médico, crea el auto-movimiento que, en la pareación no apta de la ocasión, es incorrecta. Ya es conocido: por DR. Google, todo es cáncer.
Se está deteriorando a la proliferación de noticias falsas en el campo de la salud, al menos según la percepción de uno de cada cuatro españoles. Por lo tanto, los esfuerzos realizados con entidades médicas para difundir cómo hacer uso responsable de Internet.
Sin embargo, el Dr. Google es una competencia en forma de chat de inteligencia artificial (AI), como chatggpt, y ya hay quienes prometen avances médicos espectaculares gracias a su uso.
Pero el Dr. Chatggpt también tiene límites: puede diagnosticar algunas condiciones comunes y, al mismo tiempo, no tiene éxito en voz alta. En medicina, los errores pueden tener graves consecuencias: la paciente que estaba en Chatggpt retrasó la ayuda médica después de sufrir un derrame cerebral, lo que arriesgó su vida.
¿Reemplaza al médico? Para Shunsuke, quien, profesor de la Universidad de Pensilvania, también afirma que la IA es para apoyar a los trabajadores de la salud y mejorar los procesos de riesgo, existe un riesgo significativo de desinformación y retrasos en el diagnóstico cuando estas herramientas no son inapropiadas. ”
En otras palabras, la IA actual puede ser una excelente ayuda para los trabajadores de la salud, pero no para su reemplazo.
Chatggpt parece ser más inteligente de lo que es
De hecho, una gran difusión de avance y hoy generalmente presenta solo sus éxitos, que son muchos, ocultando sus puntos oscuros. Por ejemplo, los chats conversacionales tienen un exceso de confianza: no reconocen los casos en los que se predicen ciegamente. Esto se debe a que están diseñados para producir textos que “suenan bien”, pero no hay razón para el razonamiento como los seres humanos.
Si le pregunta a Chatgtpt cuánto es uno, él sabe que “suena bien” para poner el número en respuesta a esa pregunta, porque durante su entrenamiento, hay muchos casos en los que “uno más uno”. Tiene razón, pero sin comprender lo que hace, como en la habitación china Searle, el experimento mental que defiende que saber no es suficiente para entender lo que se hace, o se dice, en el caso de Chatgtpt.
Como esto no fue suficiente, Chatgtpt habla de los codos, dando el aspecto de ser más inteligente que realmente. Por lo tanto, no estamos hablando del general IA, y por sus críticos, “es como poner un mono frente al teclado”. Por supuesto, no necesitamos ser un general para ser un gran uso de las conversaciones de conversación para que sean útiles, pero el peligro radica en el atributo de la capacidad que cruza lo que realmente pueden hacer.
¿Quién es responsable si estás equivocado?
En el campo de la medicina, otros factores que hacen que sea necesario atender los diagnósticos de los demás. Chatgpt convertido. El primero es el sesgo: todos los modelos AI actuales se basan en datos y si los datos contienen sesgo, estas inteligencia artificial los enseñarán y los mantendrán.
Pero un gran problema es probablemente la responsabilidad: ¿quién se hace cargo cuándo y lo incorrecto en el diagnóstico, en riesgo de poner la vida del paciente? Si Chatggpt Yerry dice que no necesita una visa para viajar, es una gran vergüenza, pero no puede arriesgarse a arriesgarse.
Por todas estas razones, actualmente es mejor combinar la IA con criterios médicos, una receta que ha llevado a muchos casos de uso exitosos.
Factor humano
El gran elefante en la habitación es quizás más general que establecer el chatggpt en la condición de salud y la falta de capacidad crítica. La IA bien usada es una gran herramienta, con aplicaciones inimaginables hace unos años, como generación, abstracto o traducción de textos. Pero si la inteligencia artificial tiene muchos trabajos excelentes, todavía es necesario monitorear lo que produce, y este buen trabajo debe ejecutarse con criterios, corrigiendo los errores cometidos.
Además, es una prueba de que hemos enfrentado un círculo vicioso: el uso no selectivo y afecta negativamente nuestra capacidad crítica.
Por lo tanto, es necesario poder analizar, con esta capacidad crítica, lo que AI nos dice. Esto implica la pieza de trabajo del titanio, pero es muy necesario, en el mundo donde estamos rodeados de conversaciones y empresas que hablan sin detenerse. Y en el campo de la salud, esto significa que se necesitan los criterios del profesional médico.
Aunque hay razones que pueden empujar a alguien a confiar en los criterios del Dr. Chatggpta, como se desconoce en respuesta, es necesario enfatizar que los criterios para el especialista humano hoy en día son mayormente superiores. Por lo tanto, si tiene dudas médicas, se puede preservar viajar en Delphi, pero no evite reunirse con el médico.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.