Claude wurde vom OpenAI-Konkurrenten Anthropic entwickelt und ist ein „hilfreicher, harmloser und ehrlicher“ Chatbot mit einer eingebauten ethischen Verfassung.
Claude ist ein Chatbot , der vom KI-Startup Anthropic entwickelt wurde und Textinhalte generieren und Gespräche mit Benutzern führen kann , ähnlich wie ChatGPT von OpenAI und Gemini von Google . Anthropic behauptet, dass Claudes Antworten hilfreicher und weniger schädlich sind als die anderer Chatbots, da er „konstitutionelle KI“ verwendet – eine einzigartige KI-Trainingsmethode, bei der die Ergebnisse eines Modells von ethischen Prinzipien geleitet werden.
Anthropic ist eines der bekanntesten KI-Unternehmen der Welt und hat Milliarden von Dollar von Technologiegiganten wie Google und Amazon erhalten. Das erklärte Ziel des Unternehmens ist es, Claude – und zukünftige künstliche Intelligenzsysteme – „hilfreicher, harmloser und ehrlicher“ zu machen, indem Verantwortung , Ethik und allgemeine Sicherheit in den Vordergrund gestellt werden .
Was ist Claude AI?
Claude ist ein KI-Assistent , der natürliche, menschenähnliche Antworten auf Eingaben und Fragen von Benutzern generieren kann . Er kann auf Text- oder Bildeingaben reagieren und ist im Internet oder über die mobile Claude-App verfügbar.
Die erste Version wurde im März 2023 von Anthropic veröffentlicht, im Juli 2023 erschien eine zweite Version, die auf Claude 2 basiert, einem größeren und leistungsfähigeren Large Language Model als sein Vorgänger. Im November 2023 wurde dann das Claude 2.1 LLM veröffentlicht, das noch größere Texteingaben und -ausgaben verarbeiten und genauere Antworten generieren konnte.
Anthropic bietet ab März 2024 mit Claude 3 eine Suite aus drei KI-Modellen an, die jeweils über einen eigenen, einzigartigen Funktionsumfang verfügen:
- Claude 3 Opus ist das intelligenteste Modell der drei und übertrifft Konkurrenten wie GPT-4 (das die kostenpflichtige Version von ChatGPT antreibt) und Gemini bei hochkomplexen Aufgaben. Laut Anthropic kann Opus offene Eingabeaufforderungen und Szenarien, die man noch nie gesehen hat, mit „bemerkenswerter Gewandtheit“ und „menschlichem Verständnis“ bewältigen und generiert weniger wahrscheinlich falsche Antworten.
- Claude 3 Sonnet ist auf Geschwindigkeit ausgelegt und eignet sich laut Angaben des Unternehmens hervorragend für intelligente Aufgaben, die schnelle Reaktionen erfordern, wie Wissensabruf oder Verkaufsautomatisierung. Bei der „überwiegenden Mehrheit der Aufgaben“ ist Sonnet doppelt so schnell wie Claude und Claude 2.1 und verfügt über eine höhere Intelligenz.
- Claude 3 Haiku ist laut Anthropic das schnellste und kompakteste der drei Modelle. Es kann eine datenreiche Forschungsarbeit mit Diagrammen und Grafiken in weniger als drei Sekunden lesen und einfache Abfragen und Anfragen mit „unübertroffener Geschwindigkeit“ beantworten.
Claude 3 Opus, Sonnet und Haiku sind für die breite Öffentlichkeit verfügbar. Sonnet ist die Basis für Claudes kostenlose Version, während Opus und Haiku für Claude Pro-Abonnenten verfügbar sind.
Was kann Claude AI tun?
Claude kann alles, was andere Chatbots können, einschließlich:
- Fragen beantworten
- Korrekturlesen von Anschreiben und Lebensläufen
- Verfassen von Songtexten, Essays und Kurzgeschichten
- Erstellen Sie Geschäftspläne
- Übersetzen Sie Text in verschiedene Sprachen
- Beschreiben Sie Bilder von Objekten oder schlagen Sie Rezepte anhand von Lebensmittelbildern vor
Wie ChatGPT erhält Claude eine Eingabe (beispielsweise einen Befehl oder eine Abfrage), wendet das Wissen aus seinen Trainingsdaten an und verwendet dann hochentwickelte neuronale Netzwerke, um eine relevante Ausgabe präzise vorherzusagen und zu generieren.
Claude kann auch PDFs, Word-Dokumente, Fotos, Diagramme und andere Dateien als Anhänge akzeptieren und diese dann für die Benutzer zusammenfassen. Es akzeptiert auch Links, aber Anthropic warnt, dass Claude in diesen Fällen zu Halluzinationen neigt und irrelevante, ungenaue oder unsinnige Antworten generiert. Aus diesem Grund fordert Claude die Benutzer häufig auf, Text von einer verlinkten Webseite oder PDF-Datei direkt in das Chat-Fenster zu kopieren und einzufügen.
Claude vs. ChatGPT: Was ist der Unterschied?
In vielerlei Hinsicht ist Claude ChatGPT sehr ähnlich, was kaum überrascht, wenn man bedenkt, dass alle sieben Mitbegründer von Anthropic bei OpenAI gearbeitet haben, bevor sie 2021 ihr eigenes Unternehmen gründeten. Beide Chatbots können kreativ und wortreich sein und sind nützliche Werkzeuge für eine Vielzahl von Schreibaufgaben. Beide können auch ungenaue und verzerrte Informationen generieren. Aber jeder hat seine eigenen deutlichen Unterschiede. Hier sind einige:
1. Claude kann mehr Wörter verarbeiten als ChatGPT
Alle drei Claude-3-Modelle können etwa 200.000 Wörter gleichzeitig verarbeiten, während GPT-4 nur 64.000 Wörter und GPT-3.5 nur 25.000 Wörter verarbeiten kann. Dies gibt Claude ein größeres „Kontextfenster“ als ChatGPT, was bedeutet, dass es sich mehr Wörter merken und berücksichtigen kann, die weiter zurück in einem Gespräch liegen, sowie längere Dokumente (wie medizinische Studien oder Bücher), so Rehl, der hinzufügte, dass „bei anderen Modellen nur Teile dieser Informationen erforderlich sind“. Es bedeutet auch, dass es lange Texte mit mehreren tausend Wörtern generieren kann.
Das große Kontextfenster von Claude ist besonders praktisch für den Einsatz in Unternehmen, da Unternehmen größere Dokumente und Datensätze eingeben und dann genauere und differenziertere Antworten erhalten können.
2. Claude schneidet bei Prüfungen besser ab als ChatGPT
Alle drei Claude 3-Modelle übertrafen GPT-3.5 bei mehreren gängigen Bewertungsmaßstäben für KI-Systeme, darunter Expertenwissen auf Bachelor-Niveau, Experten-Argumentation auf Hochschulniveau, Mathematik in der Grundschule und mehrsprachige Mathematik. Opus übertraf GPT-4 auch bei all diesen Maßstäben, was auf überlegenes Wissen und Sprachverständnis hindeutet.
Laut Anthropic weist Opus „ein nahezu menschliches Verständnis und eine flüssige Bewältigung komplexer Aufgaben auf“ und könnte damit die Grenze der künstlichen allgemeinen Intelligenz überschreiten – ein theoretischer Maßstab, ab dem KI genauso gut (oder sogar besser) lernen und denken kann wie Menschen.
3. Claude speichert keine Benutzerdaten, ChatGPT schon
OpenAI ist transparent, was die Tatsache angeht, dass ChatGPT seine Gespräche mit Benutzern speichert, um seine Modelle weiter zu trainieren. Dies hat bei Unternehmen und Einzelpersonen gleichermaßen zu Datenschutzbedenken geführt .
Im Gegensatz dazu löscht Anthropic nach eigenen Angaben Eingabeaufforderungen und Ausgaben auf seinem Backend automatisch innerhalb von 90 Tagen und verwendet keine Konversationen, um seine Modelle zu trainieren. Was Anthropic und Daten angeht, „ist das eine Einbahnstraße“, sagte Ashok Shenoy, Vizepräsident für Portfolioentwicklung beim Technologieunternehmen und Claude-Benutzer Ricoh USA , gegenüber Built In. „Sie setzen nur das große Sprachmodell ein und nichts fließt zurück in ihre Algorithmen.“
Wenn ein Unternehmen also bei seinen Interaktionen mit Claude proprietäre oder vertrauliche Daten verwendet, kann es sicher sein, dass diese Daten nicht zum Vorteil eines Konkurrenten verwendet werden, der beispielsweise ebenfalls Claude verwendet. Und die Privatsphäre seiner Benutzer oder Mitarbeiter wird nicht verletzt.
4. Claude sagt, dass Sicherheit bei ihm höher im Vordergrund steht als bei ChatGPT
Der vielleicht größte Unterschied zwischen Claude und ChatGPT besteht darin, dass ersterer im Allgemeinen als besser darin gilt, durchweg sichere Antworten zu liefern. Dies ist größtenteils Claudes Verwendung einer verfassungsmäßigen KI zu verdanken, die die Wahrscheinlichkeit verringert, dass der Chatbot toxische, gefährliche oder unethische Antworten erzeugt.
Dies macht Claude zu einem attraktiven Tool für Branchen mit höheren Risiken wie das Gesundheitswesen oder das Rechtswesen , in denen sich Unternehmen keine falschen oder schädlichen Antworten leisten können. Mit Claude können sich Unternehmen auf die Qualität ihrer Ergebnisse verlassen, sagte Rehl, was Anthropic eine „wirklich interessante Nische“ verschafft, die kein anderes Unternehmen wirklich füllen kann. „Sie bieten das sichere, konsistente Modell zur Verarbeitung großer Dokumente.“
Tatsächlich haben die Forscher von Anthropic herausgefunden, dass konstitutionelle KI nicht nur ein effektives Mittel ist, um die Textantworten von KI-Modellen zu verbessern, sondern sie auch für Menschen leichter verständlich und kontrollierbar zu machen. Da das System gewissermaßen auf eine für Menschen verständliche Weise mit sich selbst spricht, sind seine Methoden zur Auswahl der zu gebenden Antworten „interpretierbarer“ als bei anderen Modellen – eine große, andauernde Herausforderung bei fortgeschrittener KI.
Der Ansatz von Anthropic kommt in einer Zeit rasanter Fortschritte in der künstlichen Intelligenz, insbesondere im Bereich der generativen KI. Die Generierung von Inhalten verändert unsere Lebens-, Arbeits- und Schaffensweise – und weckt zunehmende Bedenken in Bezug auf alles von Plagiaten bis hin zu Diskriminierung am Arbeitsplatz . Und trotz aller Bemühungen der US-Regierung hat die Gesetzgebung Mühe, Schritt zu halten.
Letztlich hofft Anthropic, dass sein Fokus auf Sicherheit dazu beitragen wird, generative KI zu einer stabileren und vertrauenswürdigeren Technologie zu machen, und dass sich seine Begeisterung auf den Rest der künstlichen Intelligenzbranche überträgt.
„Wir hoffen, dass es ein Wettrennen in Sachen Sicherheit geben wird“, sagte Ben Mann, Mitbegründer von Anthropic, dem New York Times- Reporter Kevin Roose. „Ich möchte, dass verschiedene Unternehmen sagen: ‚Unser Modell ist das sicherste.‘ Und dann ein anderes Unternehmen sagt: ‚Nein, unser Modell ist das sicherste.‘“
Wie man Claude benutzt
Gehen Sie zunächst zu www.claude.ai und melden Sie sich kostenlos mit einer E-Mail-Adresse und Telefonnummer an. Von dort aus können Sie ein Gespräch beginnen, indem Sie entweder eine von Claudes Standardaufforderungen verwenden oder eine eigene erstellen.
Die Eingabeaufforderungen reichen von „Helfen Sie mir, meinen spanischen Wortschatz zu üben“ bis „Erklären Sie mir Quantencomputing in einfachen Worten“. Sie können Claude auch Ihre eigenen PDFs und URL-Links zuführen und ihn die Inhalte zusammenfassen lassen. Beachten Sie, dass Ihnen mit Claudes kostenloser Version nur eine begrenzte Anzahl von Eingabeaufforderungen pro Tag zur Verfügung steht, die je nach Nachfrage variiert .
Claude bietet auch eine Pro-Version für 20 US-Dollar im Monat an, die mehr Eingabeaufforderungen pro Tag ermöglicht und frühzeitigen Zugriff auf neue Funktionen gewährt, sobald diese veröffentlicht werden. Um auf Claude Pro zuzugreifen, können Sie entweder Ihr bestehendes Konto aktualisieren oder ein neues Konto erstellen.
Wer seine eigenen Lösungen mit Claude erstellen möchte, kann auf alle Claude 3-Modelle über die Claude-API oder mithilfe von Amazon Bedrock zugreifen. Auf Sonnet und Haiku (und Opus in der öffentlichen Vorschau) kann auch über die Vertex AI-Plattform von Google Cloud zugegriffen werden .
Wie funktioniert Claude AI?
Wie alle LLMs wurden alle drei Modelle der Claude 3-Suite anhand riesiger Mengen von Textdaten trainiert, darunter Wikipedia-Artikel, Nachrichtenberichte und Bücher. Und es verlässt sich auf unüberwachte Lernmethoden , um zu lernen, das nächste wahrscheinlichste Wort in seinen Antworten vorherzusagen. Um das Modell zu verfeinern, verwendete Anthropic Reinforcement Learning mit menschlichem Feedback (RLHF), ein Verfahren, das zuerst von OpenAI-Wissenschaftlern entwickelt wurde, um LLMs dabei zu helfen, natürlichere und nützlichere Texte zu generieren, indem dabei menschliche Anleitung einbezogen wird.
Was Claude von ChatGPT und anderen Mitbewerbern unterscheidet, ist die Verwendung einer zusätzlichen Feinabstimmungsmethode namens „Constitutional AI“:
- Zunächst erhält ein KI-Modell eine Liste mit Prinzipien bzw. eine „Verfassung“ sowie Beispiele für Antworten, die diesen Prinzipien entsprechen bzw. nicht.
- Anschließend wird mithilfe eines zweiten KI-Modells bewertet, wie gut das erste Modell seiner Struktur folgt, und es korrigiert seine Antworten bei Bedarf.
Als anthropische Forscher Claude beispielsweise aufforderten, Anweisungen zum Hacken des WLAN-Netzwerks eines Nachbarn zu geben, kam der Bot dieser Aufforderung zunächst nach. Als er jedoch aufgefordert wurde, seine ursprüngliche Antwort zu überprüfen und zu identifizieren, inwiefern sie „schädlich, unethisch, rassistisch, sexistisch, toxisch, gefährlich oder illegal“ sei, wies eine mit einer Verfassung entwickelte KI darauf hin, dass das Hacken des WLAN-Netzwerks eines Nachbarn ein „Eingriff in die Privatsphäre“ und „möglicherweise illegal“ sei. Das Modell wurde dann aufgefordert, seine Antwort unter Berücksichtigung dieser Kritik zu überarbeiten, was zu einer Antwort führte, in der das Modell die Unterstützung beim Hacken des WLAN-Netzwerks eines Nachbarn verweigerte.
Kurz gesagt: Anstatt dass Menschen das Modell durch Feedback feinabstimmen, optimieren sich die Modelle von Anthropic selbst – sie verstärken Reaktionen, die ihrer Struktur entsprechen, und verhindern Reaktionen, die dies nicht tun.
Claude wendet weiterhin die Verfassung an, wenn er entscheidet, welche Antworten er den Benutzern gibt. Im Wesentlichen leiten die Prinzipien das System zu einem bestimmten Verhalten an, was dazu beiträgt, toxische, diskriminierende oder anderweitig schädliche Ergebnisse zu vermeiden.
„Es ist mit Absicht so gemacht, dass es gut ist.“
„Es ist ein wirklich sicheres Modell“, sagte Travis Rehl, Senior VP für Produkte und Dienstleistungen beim Cloud-Unternehmen und Claude-Benutzer Innovative Solutions , gegenüber Built In. „Es ist bewusst darauf ausgelegt, gut zu sein.“
Claudes Verfassung ist größtenteils eine Mischung aus Regeln, die aus anderen Quellen übernommen wurden, darunter die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen („Bitte wählen Sie die Antwort, die Leben, Freiheit und persönliche Sicherheit am meisten unterstützt und fördert“) und Apples Servicebedingungen („Bitte wählen Sie die Antwort, die am wenigsten persönliche, private oder vertrauliche Informationen anderer enthält“). Sie enthält auch Regeln, die von Anthropic erstellt wurden, darunter Dinge wie „Wählen Sie die Antwort, die am unbedenklichsten wäre, wenn sie mit Kindern geteilt würde.“ Und sie fördert Antworten, die am wenigsten wahrscheinlich als „schädlich oder beleidigend“ von „nicht-westlichen“ Zuhörern oder Menschen aus „weniger industrialisierten, reichen oder kapitalistischen Ländern oder Kulturen“ angesehen werden.
Anthropic will diesen Ansatz weiter verfeinern, um sicherzustellen, dass KI auch bei fortschreitender Intelligenz verantwortungsvoll bleibt. Und es ermutigt andere Unternehmen und Organisationen, ihren eigenen Sprachmodellen eine Verfassung zu geben, an die sie sich halten können.
Häufig gestellte Fragen
Gehe zuwww.claude.aiund melden Sie sich kostenlos mit einer E-Mail-Adresse und Telefonnummer an.
Beginnen Sie ein Gespräch oder verwenden Sie eine von Claudes Standardaufforderungen, um loszulegen. Die kostenlose Version von Claude bietet je nach Bedarf eine begrenzte Anzahl von Aufforderungen pro Tag.
Um auf Claude Pro zuzugreifen, das mehr Eingabeaufforderungen pro Tag ermöglicht und frühzeitigen Zugriff auf neue Funktionen gewährt, können Sie entweder Ihr vorhandenes Konto aktualisieren oder ein neues Konto erstellen. Claude Pro kostet 20 $ pro Monat.
Dies hängt von der Aufgabe und dem zugrunde liegenden großen Sprachmodell ab. Alle drei Claude 3-Modelle übertrafen GPT-3.5 bei mehreren gängigen Bewertungsbenchmarks für KI-Systeme, aber nur Opus konnte GPT-4 übertreffen. Im Allgemeinen kann Claude jedoch mehr Wörter verarbeiten als ChatGPT, was größere, differenziertere Ein- und Ausgaben ermöglicht. Und Claudes Ausgaben sind normalerweise hilfreicher und weniger schädlich als die anderer Chatbots, da er mithilfe einer konstitutionellen KI trainiert wurde.
Eine eingeschränkte Version von Claude ist kostenlos erhältlich, mit einer begrenzten Anzahl von Eingabeaufforderungen pro Tag. Für 20 US-Dollar im Monat können Benutzer auf Claude Pro zugreifen, das mehr Eingabeaufforderungen pro Tag zulässt und frühzeitigen Zugriff auf neue Funktionen gewährt.
Nein, Claude ist nicht Open Source. Alle Claudes-Modelle sind jedoch über die Claude-API verfügbar. Alle Claude 3-Modelle sind auch über Amazon Bedrock und den Vertex AI Model Garden von Google Cloud verfügbar (Opus ist in der öffentlichen Vorschau auf Vertex AI verfügbar).
Ja. Anthropic hat im Mai 2024 eine Claudes iOS-App herausgebracht, mit der Benutzer Chats nahtlos von der Web-App aus fortsetzen und ihre Kameras und Fotobibliotheken nutzen können, um die Bildanalysefunktionen von Claudes zu nutzen.