Einstein GPT Trust Layer

Freischalten des Potenzials generativer KI mit der Salesforce Einstein GPT Trust Layer

With the increasing use of generative artificial intelligence such as ChatGPT, SalesGPT, and MarketingGPT, privacy and data usage concerns remain. To address these issues, Salesforce introduced the Einstein GPT Trust Layer to protect corporate data while using various Salesforce AI tools. This blog post discusses common concerns about generative AI, explains how a Large Language Model (LLM) works, and explains how the Einstein GPT Trust Layer mitigates these concerns.

Gängige Bedenken bei generativer KI

Menschen äußern oft Bedenken und Befürchtungen über den Einsatz generativer künstlicher Intelligenz und deren Umgang mit ihren Daten. Diese Bedenken sind meist auf mehrere Faktoren zurückzuführen.

Eine große Sorge besteht darin, dass diese Modelle auf riesigen Datenmengen trainiert werden müssen, um effektiv zu funktionieren, was bedeutet, dass sensible Informationen, die in den Trainingsdaten enthalten sind, möglicherweise von den Modellen erfasst und missbraucht werden könnten. Es besteht die Angst, dass persönliche Daten wie private Nachrichten, E-Mails oder Kundendetails analysiert und möglicherweise ausgebeutet werden könnten.

Ein weiteres Bedenken ist das Risiko von Datenlecks oder Sicherheitsvorfällen. Mit der Sammlung und Speicherung großer Datenmengen besteht immer die Möglichkeit, dass diese Daten in die falschen Hände geraten könnten.

Darüber hinaus besteht die Sorge, dass generative KI-Modelle zur Erstellung gefälschter oder manipulierter Inhalte verwendet werden könnten. Diese Modelle haben die Fähigkeit, Text, Bilder oder sogar Videos zu generieren, die von authentischen Inhalten kaum zu unterscheiden sind, was potenziell zur Verbreitung von Fehlinformationen oder gefälschten Inhalten führen könnte, die das öffentliche Vertrauen in digitale Kommunikation untergraben könnten.

Verständnis der Funktionsweise von Large Language Models

Hinsichtlich der Funktionsweise eines Large Language Model (LLM) und des Umgangs mit Daten ist es entscheidend zu verstehen, dass diese Modelle aufgrund ihrer Größe und Komplexität nicht in der Lage sind, gezielt auf bestimmte Daten zuzugreifen oder diese zu identifizieren. LLMs werden in der Regel mit großen Mengen an öffentlich zugänglichen Textdaten aus dem Internet oder anderen Quellen trainiert. Diese Modelle lernen, indem sie Muster und Zusammenhänge in diesen Daten erkennen, um Texte zu generieren oder Aufgaben wie Übersetzungen oder Textvervollständigungen durchzuführen.

Beim Einsatz eines LLM werden die von den Benutzern eingegebenen Daten in der Regel nicht gespeichert oder dauerhaft genutzt. Die Modelle verarbeiten die Eingabe, generieren eine Ausgabe und geben sie an den Benutzer zurück, ohne die Daten zu speichern, was bedeutet, dass die Nutzung eines LLM in der Regel keine direkte Bedrohung für die Privatsphäre oder Sicherheit der Benutzerdaten darstellt.

Was ist die Einstein GPT Trust Layer?

Als Teil der AI Cloud stellt die Einstein GPT Trust Layer einen neuen Industriestandard für vertrauenswürdige Unternehmens-KI dar. Unternehmen profitieren von generativer KI, während sie sich auf Datenschutz und Sicherheit verlassen können, indem verhindert wird, dass Large-Language Models (LLMs) sensible Kundendaten speichern.

Wie funktioniert die Einstein GPT Trust Layer?

  • Keine Datenspeicherung: Die Einstein GPT Trust Layer stellt sicher, dass Kundendaten nicht außerhalb von Salesforce gespeichert werden, was bedeutet, dass Eingabeaufforderungen und Antworten nicht von LLM-Anbietern gespeichert oder zum Trainieren ihrer Modelle verwendet werden.
  • Feedbackspeicher: Feedbackschleifen ermöglichen die Verbesserung der Qualität von Eingabeaufforderungen im Laufe der Zeit, wenn Benutzer mit generativen KI-Funktionen interagieren. Die Einstein GPT Trust Layer sammelt Feedback-Daten, einschließlich der Frage, ob die generierten Antworten hilfreich waren oder nicht, und ob ein Service-Agent diese Antwort letztendlich akzeptiert, abgelehnt oder geändert hat.
  • Verschlüsselte Kommunikation: Die an ein LLM gesendeten Aufforderungen sowie die an Salesforce zurückgesendeten Antworten werden verschlüsselt.
  • Datenzugriffsprüfungen: Steuert die Eingabeaufforderungen, indem die Ausgaben auf die Daten beschränkt werden, die gemäß den Datenzugriffsrichtlinien des Unternehmens (z. B. Profile, Berechtigungssätze, Rollen und Freigaberegeln) von den Berechtigungen des Benutzers zugelassen sind.
  • Audit-Trail: Sichere Protokollierung aller Eingabeaufforderungen, Ausgaben, Interaktionen und Feedbackdaten, die es Teams ermöglichen, von generativer KI zu profitieren und gleichzeitig ihre Compliance-Anforderungen zu erfüllen.

Erfahren Sie mehr über die Funktionsweise der Einstein GPT Trust Layer in diesem Video: https://www.salesforce.com/news/stories/video/explaining-the-einstein-gpt-trust-layer/

Glossary

Nach oben scrollen