Trend Micro hat heute alarmierende Forschungsergebnisse veröffentlicht, die Unternehmen vor den Risiken beim Einsatz von Large Language Models (LLMs) ohne angemessene Regulierung warnen. Die Studie zeigt, dass diese KI-Systeme je nach geografischem Standort und Sprache stark variierende Ergebnisse liefern können, was zu erheblichen rechtlichen, finanziellen und reputationsbezogenen Problemen führen kann.

Unternehmen, die LLMs in entscheidungsrelevanten Szenarien einsetzen, sind besonders gefährdet, da Inkonsistenzen das Vertrauen beeinträchtigen und gegen lokale Vorschriften verstoßen können. Politisch sensible Themen, wie umstrittene Gebiete oder Identitätsfragen, verdeutlichen die Risiken. Die Studie hebt hervor, dass globale Firmen besondere Herausforderungen meistern müssen, da sie mit unterschiedlichen rechtlichen Rahmenbedingungen und gesellschaftlichen Erwartungen konfrontiert sind.

Trend Micro warnt, dass gerade im öffentlichen Sektor KI-generierte Inhalte fälschlicherweise als offizielle Informationen angesehen werden könnten, was gravierende Folgen für die Souveränität und Zugänglichkeit birgt. Die vollständige Studie kann auf der Webseite von Trend Micro eingesehen werden.