El Pentágono Envía 'Mejor y Última Oferta' a Anthropic Sobre Uso Militar de Claude AI: Informe

robot
Generación de resúmenes en curso

(MENAFN- Live Mint) Funcionarios del Pentágono enviaron la noche del miércoles su “mejor y última oferta” a Anthropic en las negociaciones sobre el uso militar de la tecnología de inteligencia artificial de la compañía, informó CBS News citando fuentes familiarizadas con las conversaciones.

El medio de comunicación indicó que no estaba claro de inmediato si la nueva propuesta alteraba sustancialmente las demandas previas del gobierno o si Anthropic había aceptado los términos.

Las conversaciones se llevan a cabo antes de una fecha límite impuesta por el gobierno, establecida por el Secretario de Defensa Pete Hegseth, quien ha dado a la startup de IA hasta el viernes por la noche para conceder lo que el Pentágono describe como un uso completo y legal de su tecnología, o de lo contrario arriesgarse a perder su negocio con el ejército de EE. UU.

Amenaza de pérdida de contrato y etiqueta de “riesgo en la cadena de suministro”

Si Anthropic no cumple, las consecuencias podrían ir más allá de la pérdida de su contrato con el Pentágono.

Un alto funcionario del Pentágono dijo a CBS News que la compañía enfrentaría “no solo la pérdida de negocio sino también ser etiquetada como un riesgo en la cadena de suministro.”

El medio citando fuentes indicó que los funcionarios del Pentágono están considerando invocar la Ley de Producción de Defensa para obligar a Anthropic a cumplir con las demandas militares. La medida podría otorgar al gobierno una autoridad ampliada para exigir cooperación en interés de la seguridad nacional.

Anthropic recibió un contrato de 200 millones de dólares del Pentágono en julio para desarrollar capacidades de inteligencia artificial destinadas a avanzar los objetivos de seguridad nacional de EE. UU.

** También lea** | Explicado | ¿Por qué el Pentágono está enfrentándose a Anthropic por el uso de Claude? La disputa se centra en las salvaguardas para el uso de IA

En el centro de las negociaciones está el modelo de IA de Anthropic, Claude.

El medio, citando fuentes, también afirmó que Anthropic ha pedido repetidamente a los funcionarios de defensa que acepten salvaguardas específicas que restrinjan a Claude de realizar vigilancia masiva de los estadounidenses. Funcionarios de la administración Trump respondieron que tal vigilancia es ilegal y que el Pentágono opera dentro de los límites de la ley.

El CEO de Anthropic, Dario Amodei, también ha insistido en que Claude no sea utilizado para tomar decisiones finales de orientación en operaciones militares sin supervisión humana, según una fuente familiarizada con las negociaciones, afirmó el medio.

La fuente señaló que Claude, como otros sistemas de IA, no está exento de alucinaciones y puede no ser lo suficientemente confiable para evitar errores potencialmente mortales, incluyendo escaladas no intencionadas o fallos en la misión sin juicio humano.

Fecha límite establecida para el viernes

Durante una reunión en el Pentágono el martes por la mañana, Hegseth dio a Amodei hasta el viernes para presentar un documento firmado que otorgue acceso completo al modelo de IA de Anthropic.

** También lea** | Babak Hodjat de Cognizant tranquiliza sobre los impactos de la IA inducidos por Anthropic

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)