Laut Wall Street Journal müssen KI-Modelle in China einen Test mit 2.000 Fragen zu verbotenen Themen bestehen und mindestens 95% davon nicht beantworten.
- Laut einem Bericht des Wall Street Journal müssen alle KI-Modelle, die in China operieren, einen speziellen Zensur-Test bestehen.
- Der Test umfasst 2.000 Fragen, die Antworten auf in China zensierte Themen wie Menschenrechtsverletzungen oder die Untergrabung der Staatsgewalt provozieren sollen.
- Die Modelle müssen mindestens 95% dieser Fragen verweigern, um für den Markt zugelassen zu werden.
- Die Fragen sollen mindestens einmal monatlich aktualisiert werden, was zur Entstehung einer spezialisierten Beratungsbranche für KI-Unternehmen geführt hat.
- In China wird Apple Intelligence nicht mit OpenAI oder Google Gemini, sondern in Partnerschaft mit dem chinesischen Unternehmen Alibaba und dessen Modell Qwen3 betrieben.
- Die chinesische Regierung verlangt von den KI-Modellen einerseits, auf zensierte Informationen im chinesischen Web zu verzichten, erwartet aber gleichzeitig, dass sie durch Zugriff auf internationale Quellen leistungsfähiger werden.
Quelle: 9to5Mac
Hinweis: Dieser Artikel wurde mithilfe von KI erstellt.

