La Ley de Aumento del Senador requeriría que los desarrolladores de IA enumeren datos de capacitación, métodos de evaluación a cambio de “puerto seguro” de demandas


Únase al evento confiable por los líderes empresariales durante casi dos décadas. VB Transform reúne a las personas que construyen una logística de IA empresarial efectivo. Obtenga más información


En medio de una semana cada vez más tensa y desestabilizadora para las parte internacionales, no debe escapar de ninguna notificación técnica de los tomadores de decisiones de que algunos legisladores en el Congreso de los Estados Unidos sigan avanzando con las nuevas regulaciones de IA propuestas que podrían remodelar la industria de maneras poderosas y que buscan estabilizarlo en el futuro.

Caso en cuestión, ayer, Senadora republicana estadounidense Cynthia Lummis de Wyoming introdujo la Ley de Innovación Responsable y Experiencia Segura de 2025 (Rise)el Primer tesina de ley independiente que combina un escudo de responsabilidad condicional para los desarrolladores de IA con un mandato de transparencia sobre capacitación y especificaciones de modelos.

Al igual que con toda la nueva carta propuesta, tanto el Senado y la Cámara de Representantes de EE. UU. Tendrían que sufragar en la mayoría para aprobar el tesina de ley y el presidente de los Estados Unidos, Donald J. Trump, necesitaría firmarlo antiguamente de que se convierta en ley, un proceso que probablemente tomaría meses lo antiguamente posible.

“En pocas palabras: si queremos que Estados Unidos lidere y prospere en AI, no podemos dejar que los laboratorios escriban las reglas en las sombras”, escribió Lummis en su cuenta en X al anunciar el nuevo tesina de ley. Necesitamos estándares públicos y exigibles que equilibren la innovación con la confianza. Eso es lo que ofrece la Ley Rise. Hagámoslo “.

Asimismo defiende los estándares de negligencia tradicionales para médicos, abogados, ingenieros y otros “profesionales aprendidos”.

Si se promulga tal como se escribe, la medida entraría en vigencia el 1 de diciembre de 2025 y se aplicaría solo a la conducta que ocurre luego de esa vencimiento.

Por qué Lummis dice que es necesaria una nueva carta de IA

La sección de hallazgos del tesina de ley pinta un paisaje de apadrinamiento rápida de IA que colide con un cerámica de reglas de responsabilidad que enfría la inversión y deja a los profesionales inseguros de dónde está la responsabilidad.

Lummis enmarca su respuesta como simple reciprocidad: los desarrolladores deben ser transparentes, los profesionales deben desempeñar seso, y ninguna de las partes debe ser castigada por errores honestos una vez que se cumplan los dos deberes.

En una enunciación en su sitio web, Lummis candela a la medida “Estándares predecibles que fomentan el ampliación más seguro de la IA al tiempo que preservan la autonomía profesional”.

Con la preocupación bipartidista del montaje sobre los sistemas opacos de IA, Rise le da al Congreso una plantilla concreta: la transparencia como el precio de la responsabilidad limitada. Los cabilderos de la industria pueden presionar por derechos de redacción más amplios, mientras que los grupos de interés sabido podrían presionar por ventanas de divulgación más cortas o límites de reserva más estrictos. Mientras tanto, las asociaciones profesionales analizarán cómo los nuevos documentos pueden encajar en los estándares de atención existentes.

Cualquiera que sea la forma de la carta final, un principio ahora está firmemente sobre la mesa: en profesiones de suspensión peligro, la IA no puede seguir siendo una caja negra. Y si el tesina de ley Lummis se convierte en ley, los desarrolladores que desean paz procesal tendrán que inaugurar esa caja, al menos lo suficientemente allí como para que las personas usen sus herramientas para ver qué hay en el interior.

Cómo la nueva disposición de “puerto seguro” para los desarrolladores de IA que los protegen de demandas trabajan

Rise ofrece inmunidad de trajes civiles solo cuando un desarrollador cumple con las reglas de divulgación claras:

  • Maleable maniquí – Un epítome técnico sabido que expone datos de capacitación, métodos de evaluación, métricas de rendimiento, usos previstos y limitaciones.
  • Explicación de maniquí -La solicitud completa del sistema y otras instrucciones que dan forma al comportamiento del maniquí, con cualquier redacción secreta de comercio justificada por escrito.

El desarrollador asimismo debe difundir modos de error conocidos, ayudar toda la documentación actualizada y impulsar las actualizaciones en el interior de los 30 días posteriores al cambio de lectura o la error recientemente descubierta. Se pierda la vencimiento periferia, o actúa imprudentemente, y el escudo desaparece.

Profesionales como médicos, los abogados siguen siendo finalmente responsables de usar la IA en sus prácticas

El tesina de ley no altera los deberes de atención existentes.

El médico que interpreta mal un plan de tratamiento generado por IA o un abogado que presenta un epítome escrito por la IA sin examinarlo es responsable de los clientes.

El puerto seguro no está apto para uso no profesional, fraude o tergiversación de conocimiento, y preserva expresamente cualquier otra inmunidad que ya esté en los libros.

Reacción del coautor del tesina AI 2027

Daniel Kokotajlo, líder de la política en el tesina sin fines de beneficio AI Futures Project y coautor del documento de planificación de escenarios ampliamente circulado AI 2027llevado a Su cuenta X Para afirmar que su equipo asesoró a la oficina de Lummis durante la redacción y “S) tentativamente respaldo” el resultado. Aplaude el tesina de ley por empujar la transparencia, pero señala tres reservas:

  1. Extraña la salida. Una empresa puede simplemente aceptar responsabilidad y ayudar sus especificaciones en secreto, lo que limita las ganancias de transparencia en los escenarios más riesgosos.
  2. Ventana de retraso. Treinta días entre una libramiento y la divulgación requerida podría ser demasiado larga durante una crisis.
  3. Peligro de redacción. Las empresas pueden redactar en exceso bajo la apariencia de proteger la propiedad intelectual; Kokotajlo sugiere apremiar a las empresas a explicar por qué cada corte en realidad sirve al interés sabido.

Las opiniones del tesina de futuros de IA aumentan como un paso delante, pero no como la última palabra sobre la tolerancia de IA.


Related Posts

Respondiendo las preguntas de accesibilidad persistente de Nintendo Switch 2

Una de las mayores sorpresas de la revelación de Nintendo Switch 2 fue su accesibilidad propuesta. Durante abriles, Nintendo ha sido conocida por tropezar accidentalmente con soluciones de accesibilidad mientras…

¿Los biocombustibles aumentan las emisiones de gases de sorpresa invernadero?

¿Una expansión de los biocombustibles aumentará las emisiones de gases de sorpresa invernadero, a pesar de sus supuestos beneficios climáticos? Ese es el señuelo de Un nuevo crónica del World…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Respondiendo las preguntas de accesibilidad persistente de Nintendo Switch 2

Respondiendo las preguntas de accesibilidad persistente de Nintendo Switch 2

Muere el índice urbano boricua Marvel Boy – Remolacha

Muere el índice urbano boricua Marvel Boy – Remolacha

Irán amenaza a Israel con una respuesta “más válido”

Irán amenaza a Israel con una respuesta “más válido”

Comunitarios protestan en Canoa por apagones de Edesur

Comunitarios protestan en Canoa por apagones de Edesur

RUSIA: Putin se ofrece a Trump para mediar entre Israel e Irán | AlMomento.net

RUSIA: Putin se ofrece a Trump para mediar entre Israel e Irán | AlMomento.net

Irán alabarda una nueva oleada de proyectiles sobre Israel, que anuncia bombardeos en Teherán | AlMomento.net

Irán alabarda una nueva oleada de proyectiles sobre Israel, que anuncia bombardeos en Teherán | AlMomento.net