Mi maleable de bingo para este mes no incluía a OpenAi que le dijo al mundo que los futuros modelos de IA fronteriza que vengan a Chatgpt sabrán cómo hacer biowapons o novedosas biotreadas, pero aquí estamos. Podemos anexar esta capacidad a la creciente serie de problemas que nos dan motivos para preocuparnos por un futuro donde la IA alcanza la superinteligencia.
Sin secuestro, no es tan malo como parece. Operai nos está dando esta advertencia ahora para explicar lo que está haciendo para evitar que las futuras versiones de ChatGPT ayuden a los malos actores a diseñar biowapons.
Operai quiere tener el control de la enseñanza de la biología y la química avanzadas a sus modelos de IA en circunstancia de respaldar que ChatGPT nunca reciba capacitación con dichos datos. La mejor comprensión de la biología y la química ChatGPT, más posible será ayudar a los humanos a diseñar nuevos medicamentos y planes de tratamiento. Las versiones más avanzadas de ChatGPT podrían presentar innovaciones por su cuenta una vez que se alcanza la superinteligencia.
Congratular apoyo para crear bioweapons es solo un impresión secundario. Es por eso que el trabajo de Openai para respaldar que ChatGPT no pueda congratular público a cualquiera que busque hacer biothreats improvisado tiene que comenzar ahora.
Las innovaciones de AI Health ya están aquí
Ya hemos manido a los científicos usar las capacidades actuales de IA para encontrar nuevas opciones de tratamiento. Algunos de ellos usan AI para ver cómo las drogas aprobadas para ciertas afecciones pueden reutilizarse para tratar enfermedades raras.
Asimismo vimos un sistema de IA encontrar una cura para un tipo de ceguera al idear teorías y proponiendo experimentos para crear nuevas terapias. En última instancia, esa IA igualmente descubrió que un medicamento presencial existente puede ayudar a precaver la ceguera en una afección presencial particular.
Biothreats: el impresión secundario obvio
Operai abordó el potencial de la IA para mejorar el descubrimiento sabio en Una nueva publicación de blog Eso aborda el peligro de chatgpt ayudando con bioweapons:
Los modelos avanzados de IA tienen el poder de acelerar rápidamente el descubrimiento sabio, una de las muchas formas en que los modelos de IA fronteriza beneficiarán a la humanidad. En biología, estos modelos ya están ayudando a los científicos (se abre en una nueva ventana) a identificar qué nuevos medicamentos tienen más probabilidades de tener éxito en los ensayos en humanos. Pronto, igualmente podrían acelerar el descubrimiento de fármacos, diseñar mejores vacunas, crear enzimas para combustibles sostenibles y descubrir nuevos tratamientos para enfermedades raras para aclarar nuevas posibilidades entre la medicina, la vitalidad pública y la ciencia ambiental.
Operai explicó que cuenta con una organización para respaldar que los modelos ChatGPT no puedan ayudar a las personas con experiencia mínima o actores en gran medida calificados a crear biowapons. En circunstancia de esperar lo mejor, el plan es idear e implementar barandillas que eviten que ChatGPT ayude a los malos actores cuando se les dan indicaciones dañinas.
Operai dice que se ha comprometido con “bioseguridad, biowapons y bioterrorismo, así como investigadores académicos, para dar forma a nuestro maniquí de amenaza de bioseguridad, evaluaciones de capacidad y políticas de maniquí y uso” desde los primeros días.
Actualmente, está empleando a los equipos rojos que consisten en expertos en IA y expertos en biología para probar el chatbot y evitar que ChatGPT brinde público cuando se les pide que ayuden con experimentos que podrían permitir que cierto cree una biela.
Cómo chatgpt protege contra el bioterrorismo
OpenAI igualmente describió las características en las que incorporó ChatGPT para evitar el mal uso que podría permitir que cierto obtenga público relacionada con Bioweapon.
La IA rechazará indicaciones peligrosas. Para solicitudes de doble uso que pueden involucrar temas como experimentos de virología o ingeniería genética, ChatGPT no proporcionará pasos procesables. La desliz de detalles debe evitar que las personas que no son expertas en campos biológicos tomen medidas.
Los sistemas de detección siempre encendidos igualmente detectarían la actividad relacionada con el biocente considerada riesgosa. La IA no responderá y se activará una revisión manual. Un humano obtendría camino a ese chat de chatgpt. Operai igualmente puede suspender las cuentas y realizar investigaciones sobre el adjudicatario. En “casos atroces”, Openai podría involucrar a las autoridades policiales.
Agregue controles de equipo rojo y seguridad, y OpenAI tiene un plan difícil para precaver dicho injusticia. Sin secuestro, carencia está resguardado. Los malos actores podrían terminar Jailbreaking Chatgpt para obtener información sobre bioweapons. Pero hasta ahora, OpenAi dice que sus sistemas están funcionando.
Chatgpt O3, uno de los modelos de IA de razonamiento más avanzados de OpenAI que podrían ayudar con amenazas tan peligrosas sigue siendo “por debajo del comienzo de reincorporación capacidad en nuestro entorno de preparación”.
¿Qué es un maniquí de comienzo de reincorporación capacidad?
Operai explica en el blog Notas al pie de página qué es un maniquí de comienzo de reincorporación capacidad:
Nuestro entorno de preparación define los umbrales de capacidad que podrían conducir a un peligro bajo y pautas específicas del peligro para minimizar suficientemente el peligro de daños graves. Para la biología, un maniquí que cumple con un comienzo de reincorporación capacidad podría proporcionar público significativa a los actores novatos con capacitación básica relevante, lo que les permite crear amenazas biológicas o químicas.
Si un maniquí alcanza un comienzo de reincorporación capacidad, no lo liberaremos hasta que estemos seguros de que los riesgos han sido suficientemente mitigados.
La compañía igualmente dice en las mismas notas al pie de página que podría transmitir ciertas características de futuras versiones de ChatGPT si alcanzan ese comienzo de reincorporación capacidad.
Operai no es la única compañía que maneja las amenazas de bioweapon en el contexto de la IA destacamento con un cuidado adicional. Anthrope anunció que Claude 4 presenta un aumento de las barandillas de seguridad para evitar que la IA ayude a cualquiera a crear biowapons.
Que viene posteriormente
Operai igualmente dijo que organizará su primera cumbre de BioDefense este julio para explorar cómo sus modelos fronterizos pueden acelerar la investigación. Los investigadores del gobierno y las ONG asistirán al evento.
La compañía igualmente tiene la esperanza de que tanto el sector notorio como el privado propongan ideas novedosas para usar IA para el descubrimiento sabio relacionado con la vitalidad que puede beneficiar al mundo.




