Derzeit sorgt eine KI aus China namens DeepSeek für massive Verwerfungen: Deepseek bietet kostengünstige und leistungsstarke KI-Modelle, die in Benchmarks teilweise OpenAI’s GPT-4o und Anthropics Claude 3.5 übertreffen. Dabei sollte man vorsichtig sein, bevor man hier zu viel glaubt – oder unreflektiert das LLM einsetzt.
Auswirkungen von DeepSeek
Meta und andere große Tech-Unternehmen reagieren nervös, während Nvidias Börsenkurs sinkt. Besonders bemerkenswert ist, dass Deepseek diese Modelle mit relativ geringen Trainingskosten entwickelt hat – trotz US-Handelsbeschränkungen für leistungsfähige Chips. Es gibt Spekulationen, dass der Gründer Liang Wenfeng frühzeitig Nvidia A100 GPUs gekauft hat oder alternative Methoden wie Model-Destillation nutzt.
Während Experten die Effizienz der Modelle loben, gibt es auch Bedenken. Die Modelle zeigen Zensur bei politisch sensiblen Themen in China, wie etwa dem Tianʼanmen-Massaker. Dies wirft Fragen über die Nutzung und Neutralität der Modelle auf.
Seien Sie vorsichtig, wenn Sie KI-Lösungen aus fremden Kulturräumen einsetzen – erst recht wenn es auch noch unterschiedliche politische Systeme sind. Es ist vollkommen naheliegend, dass jedes kulturelle oder politische System eigene Regeln hinsichtlich ethischer Standards und Political Correctness hat. Diese wirken sich auf die Antworten aus, im einfachsten Fall wird einfach nur zensiert; im Worst Case werden Sie unmittelbar und unbemerkt manipuliert.
Ein kurzer Blick auf DeepSeek
Tatsächlich zeigt sich, dass DeepSeek bei vorhersehbaren – aus chinesischer Sicht kritischen – Themen anfängt zu bocken. Ein plumpes harmloses Beispiel soll dies verdeutlichen:
Tatsächlich gibt es weitere Beispiele, die Frage nach Uiguren kommt auch mal gar nicht gut an:
Allerdings zeigt die Zensur in der DeepSeek-App auch eklatante Schwächen des LLM auf, die bei mir Zweifel an der Leistungsfähigkeit wecken: Eine Frage nach dem Platz des himmlischen Friedens klappt nämlich, während die Frage nach dem Tian’anmen-Massaker zu einer wiederum bockigen Reaktion führt:
So weit scheint es mit dem semantischen Verständnis des in Englisch und Chinesisch trainierten LLM wohl dann doch nicht her zu sein.
Sorge vor der Blase …
Sorge machen muss etwas anderes: Wenn ein derart plump arbeitendes System, das mit der ungeprüften Aussage günstiger trainiert worden zu sein, unsere KI-Werte derart erschüttern kann, sollte man gut überlegen, wie realistisch derzeitige Erwartungen und Techwerte sind. Dieser Punkt, neben der Sorge, dass Menschen unbedacht LLM aus verschiedensten Systemen einsetzen, bereitet mir derzeit am meisten Kopfzerbrechen.
- Cannabissamen & THC: Verkauf von Cannabisprodukten an Tankstellen - 8. Februar 2025
- Einordnung von CBD-Öl als neuartiges Lebensmittel - 8. Februar 2025
- Strafbarkeit des Weiterleitens eines Gewaltvideos nach § 201a StGB - 7. Februar 2025