Claude Desktop blockiert Modelle von Drittanbietern mit Whitelist-Filter im Update vom 6. Mai

Laut Beating hat Claude Desktop am 6. Mai Version 1.6259.1 veröffentlicht und dabei im dritten-party-Gateway-Modus eine Whitelist-Filterung für Modell-IDs eingeführt. Das Update schränkt die Oberfläche so ein, dass nur Modelle mit IDs angezeigt werden, die mit „claude“ oder „anthropic“ beginnen, wodurch der Zugriff auf nicht-anthropische Modelle wie GPT, Grok und DeepSeek blockiert wird, die zuvor über OpenRouter verfügbar waren. Nutzer von Ollama berichteten, dass deren Gateway zwar 39 Modelle zurückgab, Claude Desktop nach dem Filter jedoch null verfügbare Modelle anzeigte. Das am selben Tag veröffentlichte Claude Code CLI 2.1.129 zog die Gateway-Integration ebenfalls nach: Die Modellerkennung wurde von „automatisch“ auf „opt-in“ umgestellt und erfordert eine manuelle Konfiguration von Umgebungsvariablen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Das Medical-AI-Modell von Tether mit 1,7 Milliarden schlägt heute einen 16-mal größeren Wettbewerber

Laut dem KI-Forschungsteam von Tether hat das Unternehmen heute die QVAC-MedPsy-Reihe medizinischer Sprachmodelle vorgestellt, die für den lokalen Einsatz auf Smartphones und Wearables ausgelegt sind, ohne Cloud-Abhängigkeit. Die Version mit 1,7 Milliarden Parametern erzielte auf sieben medizinischen Benchmarks 62,62 und übertraf damit Google MedGemma-4B

GateNews5M her

Anthropic bewertet im Pre-IPO bei 1,2 Billionen US-Dollar und liegt damit 20% vor OpenAI

Laut Odaily erreichte die implizite Bewertung von Anthropic im blockchainbasierten Pre-IPO-Markt 1,2 Billionen US-Dollar und lag damit um etwa 20% vor OpenAI. Wenn das Unternehmen mit dieser Bewertung an die Börse geht, würde es weltweit als das 11.-größte börsennotierte Unternehmen nach Marktkapitalisierung gelten, hinter Apple,

GateNews10M her

Börsenrallye in Südkorea übertrifft globale Märkte beim KI-Boom

Der Aktienmarkt in Südkorea verzeichnet beispiellose Kursgewinne, angetrieben durch KI-bezogene Halbleiteraktien: Der KOSPI-Index liegt in diesem Jahr um 78% im Plus und ist damit in der Entwicklung besser als alle anderen großen Märkte weltweit, wie Daten von Financial Modeling Prep zeigen, die in einer Axios-Analyse zitiert werden. AI

CryptoFrontier18M her

DeepL kürzt 25% der Belegschaft (etwa 250 Mitarbeitende), um sein KI-Geschäft neu zu strukturieren

Laut Bloomberg kündigte der Übersetzungstool-Anbieter DeepL heute, am 7. Mai, an, dass er rund 25% seiner Belegschaft entlassen wird, etwa 250 Mitarbeitende, um sich an strukturelle Veränderungen anzupassen, die durch künstliche Intelligenz ausgelöst werden. CEO Jarek Kutylowski sagte auf LinkedIn, das Unternehmen werde das Management reduzieren

GateNews48M her

NVIDIA stellt Nemotron 3 Nano Omni vor: Open-Source-Multimodalmodell

NVIDIA veröffentlicht Nemotron 3 Nano Omni als Open-Source-Multimodalmodell und integriert dabei Vision, Sprache und Sprache in einem einzigen Modell als Wahrnehmungsschicht für KI-Agenten. Der Kern ist ein 30B-A3B MoE mit 256K-Context und 9x Durchsatz. Das Modell unterstützt Eingaben in Form von Text, Bildern, Audio und Videos und gibt Text als Ausgabe zurück. In Zusammenarbeit mit Nemotron 3 Super/Ultra eignet es sich für Szenarien wie Computersteuerung, intelligente Dokumente sowie Audio- und Bildverständnis. Zudem stellt NVIDIA Gewichte und Trainingsdaten öffentlich bereit und bietet Deployments für lokal, NIM und Plattformen Dritter.

ChainNewsAbmedia1Std her

Cursor legt die Methode für das Autoinstall-Training offen und steigert die Leistung von Composer 2 um 14 Prozentpunkte

Laut der jüngsten Offenlegung von Cursor hat das Unternehmen eine Trainingsmethode namens Autoinstall für seine Composer-Modellreihe vorgestellt: Dabei wird ein Modell aus einer vorherigen Generation genutzt, um automatisch ausfähige Umgebungen für das nachfolgende Modell beim Reinforcement Learning einzurichten. Beim Training von Composer 2, Cursor

GateNews1Std her
Kommentieren
0/400
Keine Kommentare