Autor: pumpen der Geek
Geeks gründen Unternehmen, Anfänger kaufen Kurse, Künstler sind arbeitslos, aber eine peinliche Realität ist: KI ist in vollem Gange, aber die Handlung folgt nicht dem Ankunftsweg, sondern ist ein Würfeln.
Und in der Anfangsphase der Branche ist die Seite, auf die dieser Würfel zuerst fällt, oft entweder gelb oder grau.
Der Grund ist ganz einfach: Übermäßige Gewinne schaffen Anreize, zumal die Branche in der Anfangsphase immer voller Lücken ist. Diese Gruppe von Daten macht das deutlich:
Derzeit weisen mehr als 43 % der MCP-Service-Nodes ungeprüfte Shell-Aufrufpfade auf, und mehr als 83 % der Bereitstellungen weisen MCP-Konfigurationsschwachstellen (Model Context Protocol) auf. Bei 88 % der Bereitstellungen von KI-Komponenten ist überhaupt kein Schutz aktiviert. 150.000 leichtgewichtige KI-Bereitstellungs-Frameworks wie Ollama sind derzeit im globalen öffentlichen Netzwerk verfügbar, und mehr als 1 Milliarde US-Dollar an Rechenleistung wurden für das Mining gekapert…
Was noch ironischer ist, ist, dass der Angriff auf das intelligenteste große Modell nur die geringste Stufe an Taktik erfordert - solange es sich standardmäßig um eine Reihe offener Ports, eine exponierte YAML-Konfigurationsdatei oder einen nicht verifizierten Shell-Aufrufpfad handelt, und sogar, solange die Eingabeaufforderung genau genug ist, kann das große Modell selbst der grauen Industrie helfen, die Richtung des Angriffs zu finden. Die Tür zum Datenschutz in Unternehmen wurde im KI-Zeitalter willkürlich betreten und wieder verlassen.
Aber das Problem ist nicht unlösbar: KI hat nicht nur zwei Seiten, die der Generierung und der Angriffe. Wie man KI zum Schutz einsetzen kann, wird zunehmend zur Hauptmelodie dieser Zeit; gleichzeitig wird die Festlegung von Regeln für KI in der Cloud zu einem Schwerpunkt der führenden Cloud-Anbieter, wobei Alibaba Cloud Security das typischste Beispiel ist.
Auf dem gerade beendeten Alibaba Cloud Feitian Veröffentlichungsevent hat Alibaba Cloud offiziell zwei Wege für seine Cloud-Sicherheit bekannt gegeben: Security for AI und AI for Security, und die Serie „AI Cloud Shield“ Produkte veröffentlicht, um Kunden eine „end-to-end Sicherheitslösung für Modellanwendungen“ anzubieten, was ein bestes Beispiel für die aktuelle Erkundung der Branche ist.
01 AI Würfeln, warum sind immer grau und gelb zuerst oben?
In der Geschichte der menschlichen Technologie ist KI nicht die erste neue Spezies, die durch gelbe Stürme auf die Probe gestellt wird.
Mit der Einführung der Silberplattenfotografie im Jahr 1839 war die erste Nutzergruppe die Erotikbranche;
In der frühen Internetzeit, als der E-Commerce noch nicht begann, hatten Erwachsene Websites bereits mit Online-Zahlungen begonnen.
Die heutigen großen Modelle der „Wool Party“ sind in gewisser Weise eine Wiederholung des Reichtumsmythos der „Domain-Ära“.
Die Dividenden der Zeit werden immer zuerst von Grau und Gelb abgegriffen. Denn sie halten sich nicht an Vorschriften, warten nicht auf Regulierung, und die Effizienz ist natürlich extrem hoch.
Auch deshalb ist jede Phase der technologischen Explosion zunächst ein “Gemischter Brei”, AI ist da keine Ausnahme.
Im Dezember 2023 hat ein Hacker mit nur einem Hinweis – „$1 Angebot“ – einen Kundenservice-Roboter eines 4S-Shops dazu verleitet, fast ein Chevrolet für 1 Dollar zu verkaufen. Das ist der häufigste Fall von „Prompt Injection“ in der AI-Ära: Keine Berechtigungsüberprüfung, keine Protokollierung, nur durch geschickte Formulierung kann die gesamte Logik-Kette ausgetauscht werden.
Ein Schritt weiter ist der “Jailbreak-Angriff”. Angreifer nutzen rhetorische Fragen, Rollenspiele und Umgehungshinweise, um das Modell dazu zu bringen, Dinge zu äußern, die es eigentlich nicht sagen sollte: pornografische Inhalte, Drogenherstellung, gefälschte Warninformationen…
In Hongkong haben einige sogar mit gefälschten Sprachaufnahmen von Führungskräften 200 Millionen HKD von Unternehmenskonten erbeutet.
Neben Betrug birgt KI auch das Risiko der “unabsichtlichen Ausgabe”: Im Jahr 2023 hat ein großes Modell eines Bildungsriesen bei der Erstellung von Unterrichtsplänen versehentlich extremistische Inhalte in “Giftmaterialien” ausgegeben. Nur 3 Tage später kam es zu einem Aufschrei von Eltern und der Öffentlichkeit, und der Aktienkurs des Unternehmens fiel um 12 Milliarden Yuan.
KI versteht das Recht nicht, aber sie hat die Fähigkeit, und sobald diese Fähigkeit von der Aufsicht entfällt, wird sie schädlich.
Aber aus einer anderen Perspektive betrachtet, ist die Technologie der KI neu, aber die endgültigen Strömungen und Mittel der Grauwirtschaft und der Erotik sind unverändert, und um dies zu lösen, beruht es immer noch auf Sicherheit.
02 Sicherheit für KI
Zuerst eine kalte Tatsache, die von der gesamten KI-Branche gemieden wird:
Die Essenz von großen Modellen ist nicht „Intelligenz“ und auch nicht „Verstehen“, sondern semantische Generierung unter Wahrscheinlichkeitse kontrollen. Daher kann es, sobald der Trainingskontext überschritten wird, zu unerwarteten Ergebnissen kommen.
Diese Überschreitung des Rahmens könnte sein, dass du möchtest, dass es Nachrichten schreibt, aber es dir stattdessen ein Gedicht verfasst; oder du möchtest, dass es Produkte empfiehlt, und es sagt dir plötzlich, dass die Temperatur heute in Tokio 25 Grad Celsius beträgt. Noch schlimmer: Du sagst ihm im Spiel, dass es erschossen wird, wenn es die Original-Seriennummer einer bestimmten Software nicht bekommen kann, und das große Modell findet tatsächlich einen Weg, dem Benutzer kostenlos eine Original-Software-Seriennummer zu besorgen.
Um eine kontrollierbare Ausgabe zu gewährleisten, muss das Unternehmen sowohl das Modell als auch die Sicherheit verstehen. Laut dem neuesten “Bewertungsbericht zu den Fähigkeiten großer Sicherheitsmodelle” von IDC belegt Alibaba in einem PK mit allen führenden Anbietern in China, die über die Fähigkeit zu großen Sicherheitsmodellen verfügen, in 4 von 7 Indikatoren den ersten Platz, die übrigen 3 liegen ebenfalls über dem Branchendurchschnitt.
In der Praxis gibt Alibaba Cloud Security auch eine sehr direkte Antwort: Lassen Sie die Sicherheit der KI-Geschwindigkeit vorauslaufen und bauen Sie einen von unten nach oben und über drei Ebenen hinweg reichenden Full-Stack-Schutzrahmen auf - von der Sicherheit der Infrastruktur über die Kontrolle der Eingaben und Ausgaben großer Modelle bis hin zum Schutz von KI-Anwendungsdiensten.
In diesen drei Ebenen ist die am stärksten ausgeprägte die mittlere Ebene, die speziell auf die Risiken großer Modelle abzielt: “AI Sicherheitsschutz” (AI Guardrail).
In der Regel gibt es folgende Hauptsicherheitsrisiken im Zusammenhang mit großen Modellen: Inhaltsverletzungen, sensible Datenlecks, Prompt-Injection-Angriffe, Modellhalluzinationen und Jailbreak-Angriffe.
Allerdings sind traditionelle Sicherheitslösungen meist universelle Architekturen, die für das Web entwickelt wurden und nicht für „sprechende Programme“. Daher können sie natürlich nicht die spezifischen Risiken von groß angelegten Modellen präzise erkennen und darauf reagieren. Neue Probleme wie die Sicherheit generierter Inhalte, die Abwehr von Kontextangriffen und die Vertrauenswürdigkeit der Modellausgaben sind zudem schwer abzudecken. Noch wichtiger ist, dass traditionelle Lösungen an feinkörnigen Kontrollmechanismen und visualisierbaren Rückverfolgbarkeitsmechanismen fehlen, was dazu führt, dass Unternehmen große blinde Flecken in der KI-Governance haben, nicht wissen, wo die Probleme liegen, und folglich diese nicht lösen können.
Die wahre Stärke von AI Guardrail liegt nicht nur darin, dass “es aufhalten kann”, sondern auch darin, dass es, egal ob Sie große vortrainierte Modelle, AI-Dienste oder verschiedene Geschäftsmodelle von AI-Agenten entwickeln, genau weiß, worüber Sie sprechen und was das große Modell generiert, und somit präzise Risikobewertung und proaktive Verteidigungsfähigkeiten bietet, um Compliance, Sicherheit und Stabilität zu gewährleisten.
Konkret ist AI Guardrail verantwortlich für den Schutz in drei Arten von Szenarien:
ꔷ Compliance-Baseline: Durchführung einer multidimensionalen Compliance-Prüfung der von generativer KI eingegebenen und ausgegebenen Textinhalte, die Risiko-Kategorien wie politische Sensibilität, pornografisches und vulgäres Material, Vorurteile und Diskriminierung sowie schädliche Werte abdeckt. Tiefenprüfung der möglicherweise während der KI-Interaktion preisgegebenen personenbezogenen Daten und sensibler Informationen, Unterstützung bei der Identifizierung sensibler Inhalte, die personenbezogene und Unternehmensdaten betreffen, sowie Bereitstellung digitaler Wasserzeichen zur Kennzeichnung, um sicherzustellen, dass die von der KI erzeugten Inhalte den gesetzlichen Vorschriften und Plattformrichtlinien entsprechen;
ꔷ Bedrohungsschutz: Gegen externe Angriffe wie Prompt-Angriffe, bösartige Dateiuploads und bösartige URL-Links kann eine Echtzeitüberwachung und -sperrung durchgeführt werden, um das Risiko für die Endbenutzer von KI-Anwendungen zu vermeiden;
Modellgesundheit: Fokus auf die Stabilität und Zuverlässigkeit des KI-Modells selbst. Es wurde ein umfassendes Erkennungssystem für Probleme wie Jailbreaking und Prompt-Crawling eingerichtet, um Missbrauch, Fehlgebrauch oder unkontrollierte Ausgaben des Modells zu verhindern und eine “Immunabwehr” für das KI-System aufzubauen;
Das Bemerkenswerteste ist, dass AI Guardrail nicht einfach die oben genannten mehreren Erkennungsmodule zusammenfügt, sondern eine echte ALL IN ONE API erreicht, ohne Module aufzuteilen, Geld hinzuzufügen oder Produkte zu wechseln. Für Modell-Input- und Output-Risiken müssen Kunden keine zusätzlichen Produkte kaufen. Verschiedene Modellrisiken, wie z. B. Injektionsrisiko, bösartige Dateien, Content-Compliance, Halluzinationen usw., können im selben Produkt gelöst werden. Eine Schnittstelle kann 10+ Arten von Angriffsszenarien erkennen, 4 Bereitstellungsmethoden (API-Proxy, Plattformintegration, Gateway-Zugriff und WAF-Mounting), Reaktion auf Millisekundenebene und gleichzeitige Verarbeitung auf 1.000 Ebenen mit einer Genauigkeitsrate von bis zu 99 % unterstützen.
Deshalb besteht die eigentliche Bedeutung von AI Guardrail darin, “Modellsicherheit” in “Produktfähigkeit” umzuwandeln, sodass eine Schnittstelle ein Sicherheitsteam ersetzt.
Natürlich ist das große Modell kein in der Luft schwebendes Konzept, sondern ein System, das auf Hardware und Code läuft und die oberen Anwendungen unterstützt. Und hinsichtlich der Sicherheit der Infrastruktur und des Schutzes von AI-Anwendungsdiensten hat Alibaba Cloud Security ebenfalls Upgrades vorgenommen.
Infrastrukturebene, Alibaba Cloud Security hat das Cloud Security Center eingeführt, dessen Kernprodukte AI-BOM, AI-SPM usw. sind.
Konkret lösen die beiden Fähigkeiten AI-BOM (AI Stückliste) und AI-SPM (AI Sicherheitslage-Management) die Fragen “Welche AI-Komponenten habe ich installiert” und “Wie viele Lücken gibt es in diesen Komponenten”.
Der Kern von AI-BOM besteht darin, alle AI-Komponenten in der Bereitstellungsumgebung zu erfassen: Über 30 gängige Komponenten wie Ray, Ollama, Mlflow, Jupyter, TorchServe bilden eine “AI-Softwarematerialliste”, die automatisch vorhandene Sicherheitsanfälligkeiten und Abhängigkeitslücken identifiziert. Problematische Vermögenswerte werden nicht mehr manuell durchsucht, sondern durch cloud-native Scans erkannt.
Die Positionierung von AI-SPM ähnelt eher einem “Radar”: Es bewertet kontinuierlich die Sicherheitssituation des Systems aus mehreren Dimensionen wie Schwachstellen, exponierte Ports, Credential-Leaks, unverschlüsselte Konfigurationen und unbefugten Zugriffen und gibt dynamisch Risikostufen und Reparaturempfehlungen aus. Es verwandelt Sicherheit von “Snapshot-Compliance” in “Streaming-Governance”.
Zusammenfassung in einem Satz: AI-BOM weiß, wo du möglicherweise gepatcht hast, AI-SPM weiß, wo du noch einen Treffer kassieren könntest, und du solltest schnellstmöglich Vorsichtsmaßnahmen treffen.
Für die Schutzschicht von KI-Anwendungen ist das Kernprodukt von Alibaba Cloud Security WAAP (Web Application & API Protection).
Egal wie intelligent die Modellausgaben sind, wenn der Eingang nur aus Skriptanfragen, gefälschten Tokens und übermäßigen Schnittstellenaufrufen besteht, hält das nicht lange an. Alibaba WAAP (Web Application & API Protection) wurde genau dafür entwickelt. Es behandelt AI-Anwendungen nicht nach “traditionellen Web-Systemen”, sondern bietet spezielle Sicherheitsregeln für AI-Komponenten, eine AI-Geschäfts-Fingerabdruckdatenbank und ein Verkehrsprofilierungssystem.
Beispiel: WAAP hat über 50 Komponentenanfälligkeiten abgedeckt, darunter die beliebige Datei-Uploads von Mlflow und die Remote-Befehlsausführung des Ray-Dienstes; die integrierte AI-Webcrawler-Fingerabdruckdatenbank kann mehr als zehntausend neue Korpora und Modellbewertungswerkzeuge pro Stunde erkennen; die API-Vermögensidentifikationsfunktion kann automatisch entdecken, welches System innerhalb des Unternehmens die GPT-Schnittstelle exponiert hat und dem Sicherheitsteam eine „Punktemappe“ geben.
Am wichtigsten ist, dass WAAP und AI Guardrail sich nicht widersprechen, sondern sich ergänzen: der eine schaut auf „wer ist gekommen“, der andere auf „was wurde gesagt“. Der eine ist wie ein „Identitätsprüfer“, der andere wie ein „Verhaltensprüfer“. Dies verleiht der KI-Anwendung eine Art „Selbstimmunität“ – durch Erkennung, Isolation, Verfolgung und Gegenmaßnahmen nicht nur „schlechte Leute abzuwehren“, sondern auch „zu verhindern, dass das Modell selbst schlecht wird“.
03 KI für Sicherheit
Da KI in der Anwendung ein Würfeln ist, ist es nicht verwunderlich, dass einige damit Wahrsagerei betreiben, andere sie Gedichte schreiben lassen und wieder andere sie für graue Geschäfte nutzen. Daher ist es auch nicht überraschend, dass manche sie zur Sicherheit einsetzen.
In der Vergangenheit benötigte der sichere Betrieb eine Gruppe von Menschen, die Tag und Nacht eine Menge von roten und grünen Alarmen überwachten, tagsüber die Überreste des Vortages aufnahmen und nachts mit dem System Nachtschicht hielten.
Jetzt können all diese Aufgaben von der KI erledigt werden. Im Jahr 2024 wird das Sicherheitssystem von Alibaba Cloud vollständig mit dem Tongyi-Großmodell verbunden und bietet eine AI-Fähigkeitssammlung, die Datensicherheit, Inhaltsicherheit, Geschäftssicherheit und Sicherheitsbetrieb abdeckt, und ein neues Motto wird vorgestellt: Protect at AI Speed.
Die Bedeutung ist klar: Das Geschäft läuft schnell, das Risiko noch schneller, aber die Sicherheit muss noch schneller sein.
Und die Sicherheit mit KI zu verbessern, besteht eigentlich aus zwei Dingen: Effizienzsteigerung im Sicherheitsbetrieb + intelligente Aufrüstung der Sicherheitsprodukte.
Der größte Schmerzpunkt traditioneller Sicherheitssysteme ist die “verzögerte Aktualisierung der Strategien”: Die Angreifer haben sich geändert, die Regeln sind gleich geblieben; die Warnungen kommen, aber niemand versteht sie.
Der Schlüssel zur Veränderung durch große Modelle liegt darin, das Sicherheitssystem von regelbasiert auf modellbasiert umzustellen, um ein geschlossenes Ökosystem mit „AI-Verständnisfähigkeit + Nutzerfeedback“ zu schaffen – AI versteht das Nutzerverhalten → Nutzerfeedback warnt vor Ergebnissen → Modell wird kontinuierlich trainiert → Erkennungsfähigkeit wird immer genauer → Zyklen werden immer kürzer → Risiken werden immer schwerer zu verbergen, das ist das, was man das „Datenflywheel“ nennt:
Seine Vorteile sind zwei:
Einerseits wird die Effizienz des Sicherheitsbetriebs von Cloud-Mietern verbessert: In der Vergangenheit bedeutete die Bedrohungserkennung oft ein ineffizientes Modell aus “massiven Warnungen + manueller Überprüfung”. Heute identifiziert eine intelligente Modellierung abnormale Verhaltensweisen wie bösartigen Datenverkehr, Host-Eindringen und Backdoor-Skripte genau, und die Alarmtrefferrate wird erheblich verbessert. Gleichzeitig hat das System rund um die Entsorgungsverbindung die tiefe Synergie zwischen automatischer Entsorgung und extrem schneller Reaktion realisiert - die Reinheit des Wirts liegt stabil bei 99 % und die Reinheit des Durchflusses liegt bei nahezu 99,9 %. Gegenwärtig hat die Abdeckungsrate von Alarmereignistypen 99 % erreicht, und die Benutzerabdeckungsrate großer Modelle hat ebenfalls 88 % überschritten, und die menschliche Effizienz des Sicherheitsteams wurde beispiellos entfesselt.
Auf der anderen Seite verbessert sich die Fähigkeit der Cloud-Sicherheitsprodukte schnell. Auf der Ebene der Datensicherheit und der Betriebssicherheit wird KI mit der Verantwortung des „Torwächters“ betraut: Basierend auf den Fähigkeiten großer Modelle kann sie in der Cloud automatisch über 800 Arten von Entitätsdaten identifizieren und intelligent anonymisieren und verschlüsseln. Nicht nur strukturierte Daten, das System enthält auch mehr als 30 Modelle zur Dokumenten- und Bilderkennung, die in der Lage sind, sensible Informationen wie Personalausweisnummern und Vertragsmerkmale in Bildern in Echtzeit zu identifizieren, zu klassifizieren und zu verschlüsseln. Die Gesamtmarkierungseffizienz von Daten wurde um das Fünfzehnfache gesteigert, die Erkennungsgenauigkeit erreicht 95 %, wodurch das Risiko von Datenschutzverletzungen erheblich verringert wurde.
Ein Beispiel: Im Bereich der Inhaltsicherheit war es traditionell üblich, menschliche Prüfung, Tagging und großflächige Annotationstraining zu nutzen. Jetzt hat Alibaba durch Prompt Engineering und semantische Verbesserung eine Effizienzsteigerung bei der Annotation von 100 %, eine Steigerung der Erkennung unscharfer Ausdrücke um 73 %, eine Steigerung der Erkennung von Bildinhalten um 88 % und eine Genauigkeitsrate von 99 % bei der Erkennung von lebenden Gesichtern durch KI erzielt.
Wenn das Flywheel auf die autonome Kontrolle von KI in Kombination mit menschlicher Erfahrung abzielt, dann ist der intelligente Assistent der Alleskönner für Sicherheitspersonal.
Die Sicherheitsbetriebsmitarbeiter stehen täglich vor den meisten Fragen: Was bedeutet dieser Alarm? Warum wurde er ausgelöst? Ist es ein Fehlalarm? Wie soll ich damit umgehen? Früher musste man dafür die Protokolle durchsuchen, die Historie prüfen, alte Mitarbeiter fragen, Arbeitsaufträge erstellen und technischen Support kontaktieren… Jetzt reicht ein einziger Satz.
Allerdings ist die Funktionalität des intelligenten Assistenten nicht nur die eines Frage-Antwort-Roboters, sondern ähnelt eher einem vertikalen Copilot im Sicherheitsbereich, dessen fünf Kernfähigkeiten umfassen:
Produktfrageassistent: Automatische Antworten darauf, wie eine bestimmte Funktion konfiguriert wird, warum diese Strategie ausgelöst wird und welche Ressourcen keinen Schutz aktiviert haben, ersetzt eine große Anzahl von Ticketdiensten;
Alarm-Interpretationsexperte: Geben Sie die Alarmnummer ein, um automatisch die Ereigniserklärung, die Rückverfolgbarkeit der Angriffswege, empfohlene Reaktionsstrategien auszugeben und die Unterstützung mehrerer Sprachen zu ermöglichen;
Sicherheitsereignis-Review-Assistent: Automatische Aufarbeitung der vollständigen Kette eines Eindringereignisses, Erstellung einer Zeitachse, eines Angriffswegdiagramms und Empfehlungen zur Verantwortungseinstufung;
Berichtsgenerator: Ein-Klick-Generierung von monatlichen/vierteljährlichen/notfall Sicherheitsberichten, die Ereignisstatistiken, Bearbeitungsfeedback und Betriebsergebnisse abdecken; unterstützt die visuelle Exportierung;
Vollständige Sprachunterstützung: Chinesisch und Englisch sind abgedeckt, die internationale Version wird im Juni veröffentlicht und unterstützt die automatische Anpassung an die Gewohnheiten der ausländischen Teams.
Unterschätzen Sie nicht diese „fünf kleinen Dinge“. Bis jetzt zeigen die offiziellen Daten von Alibaba, dass über 40.000 Benutzer bedient wurden, die Benutzerzufriedenheit bei 99,81 % liegt und die abgedeckten Alarmtypen 100 % erreichen. Die Unterstützungsfähigkeit von Prompt hat sich um 1175 % (im Vergleich zu FY24) verbessert. Einfach gesagt, es verpackt die leistungsstarken Kollegen im Nachtdienst, die Praktikanten, die Berichte schreiben, die Ingenieure, die Alarme bearbeiten, und die sicherheitsbewussten Berater, die das Geschäft verstehen, in eine API. Dank dieser Fähigkeit trifft der Mensch nur Entscheidungen und patrouilliert nicht mehr.
04 Nachwort
Rückblickend hat die Geschichte nie an “bahnbrechenden Technologien” gefehlt, sondern an Technologien, die die zweite Jahreshitze überstehen können.
Internet, P2P, Blockchain, autonomes Fahren… Jede Welle des technologischen Ausbruchs wurde als “neue Infrastruktur” bezeichnet, aber letztendlich sind nur wenige in der Lage, das “Governance-Vakuum” zu durchdringen und echte Infrastruktur zu werden.
Die heutige generative KI befindet sich in einer ähnlichen Phase: Auf der einen Seite blühen die Modelle auf, das Kapital rauscht und Anwendungen brechen durch. Auf der einen Seite sind die Injektion von prompten Wörtern, die Überschreitung von Inhalten, Datenlecks und Modellmanipulationen voller Schlupflöcher, verschwommener Grenzen und unfokussierter Verantwortlichkeiten.
Aber KI ist anders als frühere Technologien. Sie kann nicht nur Bilder zeichnen, Gedichte schreiben, programmieren und übersetzen, sondern auch menschliche Sprache imitieren, urteilen und sogar Emotionen erkennen. Doch gerade deshalb ist die Zerbrechlichkeit der KI nicht nur auf Codefehler zurückzuführen, sondern spiegelt auch die Menschlichkeit wider. Menschen haben Vorurteile, und sie wird sie ebenfalls lernen; Menschen streben nach Bequemlichkeit, und sie wird für dich schummeln.
Die Benutzerfreundlichkeit der Technologie selbst ist ein Verstärker für diese Abbildung: Früher mussten IT-Systeme über “Benutzerautorisierung” verfügen, und Angriffe basierten auf Eindringen; jetzt benötigt das große Modell nur die Eingabe von Anweisungen, um mit dir zu reden, was zu Systemfehlern und Datenschutzverletzungen führen kann.
Natürlich gibt es kein “perfekt fehlerfreies” KI-System, das ist Science-Fiction, nicht Ingenieurwesen.
Die einzige Antwort ist, unsichere Modelle mit sicheren Modellen zu schützen; intelligente Systeme zu verwenden, um gegen intelligente Bedrohungen vorzugehen – AI zu würfeln, Alibaba wählt die sichere Seite.