Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Заметил интересный тренд на фоне растущей интеграции ИИ в оборонную сферу. Пентагон серьезно усилил давление на Anthropic, требуя полного доступа к модели Claude для военного применения. Судя по сообщениям, министр обороны Пит Хегсет дал компании финальный ультиматум - согласиться на условия Пентагона до конца недели или потерять военные контракты и получить статус риска для снабжения.
Что именно требует Пентагон? Полный контроль над технологией, использование без ограничений (кроме законодательных), и готовность применить закон об оборонном производстве для принуждения к сотрудничеству. На военном фоне это выглядит как классическое давление государства на приватную компанию.
Но вот что интересно - CEO Anthropic Дарио Амодей упирается. Компания настаивает на предохранителях, не хочет, чтобы Claude использовался для массовой слежки, требует человеческого контроля в финальных решениях о поражении целей. Амодей беспокоится, что модель может галлюцинировать, что без человека в цепочке может привести к фатальным ошибкам. Логично, если честно.
Контекст еще более интересный. Оказывается, Claude уже использовался военными США - помогал в операциях, включая удары по объектам. Это и спровоцировало обострение ситуации.
Пока Anthropic и Пентагон торгуются, конкуренты не сидят сложа руки. Пентагон активно расширяет портфель ИИ-решений на военном фоне. Интегрирует Grok от xAI в военные системы, подписал контракт на 99+ миллионов с TurbineOne для офлайн-решений распознавания угроз (дроны, позиции противника), и даже сделку на 200 миллионов с OpenAI на разработку ИИ-прототипов для национальной безопасности.
Получается, Anthropic находится в сложной позиции. С одной стороны - огромные контракты и влияние на военном фоне. С другой - риск репутационного ущерба и этических вопросов. Вопрос, кто в итоге сдастся - государство или компания, которая до сих пор позиционировала себя как сторонница ответственного ИИ.