Einleitung: Der Aufstieg intelligenter Agenten und ihrer SDKs
Im sich schnell entwickelnden Bereich der künstlichen Intelligenz werden intelligente Agenten zunehmend integraler Bestandteil einer Vielzahl von Anwendungen. Von Chatbots im Kundenservice und persönlichen Assistenten bis hin zu anspruchsvollen Datenanalysetools und autonomen Systemen sind Agenten darauf ausgelegt, ihre Umgebung wahrzunehmen, über ihre Beobachtungen nachzudenken und Maßnahmen zu ergreifen, um spezifische Ziele zu erreichen. Der Aufbau dieser Agenten erfordert jedoch solide Frameworks und Werkzeuge, die häufig in Form von Software Development Kits (SDKs) bereitgestellt werden.
Ein Agent SDK bietet typischerweise eine Sammlung von Bibliotheken, APIs und Entwicklungstools, die den Prozess der Erstellung, Bereitstellung und Verwaltung intelligenter Agenten vereinfachen. Diese SDKs abstrahieren einen Großteil der zugrunde liegenden Komplexität, sodass Entwickler sich auf die Logik, Wissensdarstellung und Interaktionsmuster des Agenten konzentrieren können. Bei der Vielzahl verfügbarer SDKs kann die Auswahl des richtigen für Ihr Projekt eine herausfordernde Aufgabe sein. Dieses Tutorial zielt darauf ab, diesen Prozess zu entmystifizieren, indem es einige beliebte Agent SDKs anhand praktischer Beispiele vergleicht, um Ihnen zu helfen, eine informierte Entscheidung zu treffen.
Wir werden die Funktionen, Stärken und idealen Anwendungsfälle mehrerer prominenter SDKs untersuchen und Ihnen Codebeispiele und Erklärungen bereitstellen, um deren praktische Anwendung zu veranschaulichen. Unser Ziel ist es, Sie mit dem Wissen auszustatten, ein Agent SDK auszuwählen und effektiv zu nutzen, um Ihre intelligenten Anwendungen zum Leben zu erwecken.
Wichtige Überlegungen bei der Auswahl eines Agent SDK
Bevor wir uns mit spezifischen SDKs befassen, ist es wichtig, die Kriterien zu verstehen, die Ihre Auswahl leiten sollten:
- Unterstützung von Programmiersprachen: Unterstützt das SDK Ihre bevorzugte Sprache (Python, Java, JavaScript usw.)?
- Agentenparadigma: Passt es zu der Art von Agent, den Sie erstellen (z. B. reaktiv, deliberativ, BDI)?
- Skalierbarkeit und Leistung: Kann es die erwartete Last und Komplexität Ihres Agentensystems bewältigen?
- Benutzerfreundlichkeit und Lernkurve: Wie einfach ist es, mit dem SDK zu beginnen und zu entwickeln?
- Gemeinschaft und Dokumentation: Gibt es aktive Unterstützung durch die Gemeinschaft und umfassende Dokumentation?
- Integrationsfähigkeiten: Wie gut integriert es sich mit anderen Tools und Diensten (Datenbanken, Cloud-Plattformen, NLP-Bibliotheken)?
- Erweiterbarkeit: Können Sie seine Funktionen einfach erweitern oder benutzerdefinierte Komponenten integrieren?
- Lizenzierung und Kosten: Ist es Open Source, kommerziell oder hat es spezifische Lizenzbedingungen?
SDK 1: Rasa – Die Conversational AI Kraftpaket
Übersicht
Rasa ist ein Open-Source-Maschinenlern-Framework für automatisierte text- und sprachbasierte Konversationen. Es ist besonders gut geeignet, um anspruchsvolle Chatbots und virtuelle Assistenten zu erstellen. Rasa bietet ein vollständiges Toolkit für das Verständnis natürlicher Sprache (NLU), das Dialogmanagement und die Generierung von Antworten, das Entwicklern ermöglicht, hochkontextuelle und intelligente Konversationsagenten zu schaffen.
Wichtige Funktionen
- Verständnis natürlicher Sprache (NLU): Extrahiert Absichten und Entitäten aus Benutzernachrichten.
- Dialogmanagement: Steuert den Gesprächsfluss, verfolgt den Kontext und entscheidet über die nächste Aktion.
- Benutzerdefinierte Aktionen: Ermöglicht die Integration mit externen APIs und Datenbanken.
- Management von Trainingsdaten: Werkzeuge zur Erstellung und Verwaltung von Trainingsbeispielen.
- Skalierbarkeit: Entwickelt für die Produktionseinsätze.
Praktisches Beispiel: Ein einfacher Wetterbot
Lassen Sie uns einen grundlegenden Wetterbot mit Rasa erstellen. Zuerst müssen Sie Rasa installieren:
pip install rasa
Dann initialisieren Sie ein neues Rasa-Projekt:
rasa init --no-prompt
Dies erstellt eine grundlegende Projektstruktur. Wir werden data/nlu.yml, data/stories.yml und domain.yml ändern.
data/nlu.yml (NLU Trainingsdaten)
version: "3.1"
nlu:
- intent: greet
examples: |
- hi
- hello
- good morning
- intent: ask_weather
examples: |
- what's the weather like
- tell me the weather
- is it sunny in [London](city)
- how's the weather in [Paris](city)
- intent: thank_you
examples: |
- thank you
- thanks
- intent: goodbye
examples: |
- goodbye
- bye
data/stories.yml (Dialoggeschichten)
version: "3.1"
stories:
- story: happy path
steps:
- intent: greet
- action: utter_greet
- intent: ask_weather
- action: utter_ask_city
- intent: ask_weather
entities:
- city: "New York"
- action: action_fetch_weather
- intent: thank_you
- action: utter_you_welcome
- intent: goodbye
- action: utter_goodbye
domain.yml (Domäne des Agenten)
version: "3.1"
intents:
- greet
- ask_weather
- thank_you
- goodbye
entities:
- city
slots:
city:
type: text
influence_conversation: true
mappings:
- type: from_entity
entity: city
responses:
utter_greet:
- text: "Hallo! Wie kann ich Ihnen heute helfen?"
utter_ask_city:
- text: "In welcher Stadt sind Sie interessiert?"
utter_you_welcome:
- text: "Gern geschehen!"
utter_goodbye:
- text: "Auf Wiedersehen! Einen schönen Tag noch."
actions:
- action_fetch_weather
session_config:
session_expiration_time: 60
carry_over_slots_to_new_session: true
actions.py (Benutzerdefinierte Aktion)
from typing import Any, Text, Dict, List
from rasa_sdk import Action, Tracker
from rasa_sdk.executor import CollectingDispatcher
from rasa_sdk.events import SlotSet
import requests # Für das Abrufen echter Wetterdaten oder Mock zur Vereinfachung
class ActionFetchWeather(Action):
def name(self) -> Text:
return "action_fetch_weather"
def run(self, dispatcher: CollectingDispatcher, tracker: Tracker,
domain: Dict[Text, Any]) -> List[Dict[Text, Any]]:
city = tracker.get_slot("city")
if not city:
dispatcher.utter_message(text="Ich habe die Stadt nicht mitbekommen. Könnten Sie mir bitte sagen, welche Stadt?")
return []
# In einer echten Anwendung würden Sie hier eine Wetter-API aufrufen.
# Für dieses Beispiel verwenden wir eine Mock-Antwort.
weather_data = {
"London": "Es ist bewölkt mit einer Wahrscheinlichkeit von Regen.",
"Paris": "Sonnig und warm.",
"New York": "Ein bisschen kühl, etwa 10 Grad Celsius."
}
response = weather_data.get(city, f"Entschuldigung, ich habe keine Wetterinformationen für {city} gerade.")
dispatcher.utter_message(text=response)
return [SlotSet("city", None)] # Löschen Sie den Stadtschlüssel, nachdem das Wetter bereitgestellt wurde
Um dies auszuführen, trainieren Sie das Rasa-Modell:
rasa train
Dann starten Sie den Rasa-Server und den Aktionsserver (in separaten Terminals):
rasa run -m models --enable-api --cors "*"
rasa run actions
Sie können dann über die Kommandozeile mit Ihrem Bot interagieren:
rasa shell
Stärken: Hervorragend für Conversational AI, starke NLU und Dialogmanagement, Open Source, aktive Gemeinschaft.
Schwächen: Steilere Lernkurve für nicht-konversationelle Aufgaben, hauptsächlich auf Text-/Sprachinteraktion ausgerichtet.
Idealer Anwendungsfall: Chatbots, virtuelle Assistenten, konversationelle Schnittstellen für Anwendungen.
SDK 2: AIMA Python – Klassische KI-Agenten für Bildung und Forschung
Übersicht
Das Lehrbuch „Künstliche Intelligenz: Ein moderner Ansatz“ (AIMA) von Russell und Norvig ist ein Grundpfeiler der KI-Ausbildung. Das begleitende Python-Code-Repository, oft als AIMA Python bezeichnet, bietet Implementierungen vieler klassischer KI-Algorithmen und Agenten-Frameworks, die im Buch behandelt werden. Obwohl es sich nicht um ein vollwertiges Produktions-SDK handelt, ist es eine unverzichtbare Ressource zum Verständnis grundlegender Agentenkonzepte und zum Prototyping einfacher intelligenter Systeme.
Wichtige Funktionen
- Klassische Agentenarchitekturen: Implementierungen einfacher Reflexagenten, modellbasierter Reflexagenten, zielbasierter Agenten und utilitaristischer Agenten.
- Suchalgorithmen: Verschiedene Suchalgorithmen (BFS, DFS, A*, usw.) zur Problemlösung.
- Logik und Planung: Grundlegende Werkzeuge für Aussagenlogik, Aussagen erster Ordnung und Planung.
- Bildungsfokus: Entwickelt, um grundlegende KI-Prinzipien zu veranschaulichen.
Praktisches Beispiel: Ein einfacher Reflexagent (Staubsaugerwelt)
Lassen Sie uns einen einfachen Reflexagenten für die klassische Staubsaugerwelt implementieren. Dieser Agent nimmt seinen aktuellen Standort und ob er schmutzig ist wahr, und handelt dann basierend auf einer vordefinierten Regelmenge.
Zuerst müssen Sie das AIMA Python-Repository klonen oder herunterladen:
git clone https://github.com/aimacode/aima-python.git
Navigieren Sie in das Verzeichnis und verwenden Sie seine Module. Wir werden eine Umgebung und einen Agenten definieren.
vacuum_agent.py
from agents import Agent, Environment, Percept, TraceAgent, SimpleReflexAgent
class VacuumEnvironment(Environment):
"""Die Umgebung für die Staubsaugerwelt."""
def __init__(self, A='clean', B='clean'):
super().__init__()
self.status = {'A': A, 'B': B}
self.percepts = {'A': None, 'B': None}
self.location = 'A'
def percept(self, agent):
"""Gibt die Wahrnehmung des Agenten von der Umgebung zurück."""
return (self.location, self.status[self.location])
def execute_action(self, agent, action):
"""Führt die Aktion des Agenten in der Umgebung aus."""
if action == 'Right':
self.location = 'B'
elif action == 'Left':
self.location = 'A'
elif action == 'Suck':
if self.status[self.location] == 'dirty':
self.status[self.location] = 'clean'
# print(f"Agent {agent.name} performed {action}. Env: {self.status}, Loc: {self.location}")
def default_location(self, agent):
return 'A'
def default_percept(self):
return ('A', 'clean') # Standardwahrnehmung für die Umgebung
def SimpleVacuumAgent():
"""Ein einfacher Reflexagent für die Staubsaugerwelt."""
return SimpleReflexAgent({
(('A', 'dirty'), 'Suck'),
(('B', 'dirty'), 'Suck'),
(('A', 'clean'), 'Right'),
(('B', 'clean'), 'Left')
})
if __name__ == '__main__':
# Erstelle eine Umgebung mit etwas Schmutz
env = VacuumEnvironment(A='dirty', B='dirty')
# Erstelle den Agenten
agent = SimpleVacuumAgent()
# Füge den Agenten zur Umgebung hinzu
env.add_agent(agent)
# Führe die Simulation für einige Schritte aus
print("Anfängliche Umgebung:", env.status, "Standort:", env.location)
env.run(steps=10)
print("Endgültige Umgebung:", env.status, "Standort:", env.location)
# Ein weiteres Szenario
env2 = VacuumEnvironment(A='clean', B='dirty')
agent2 = SimpleVacuumAgent()
env2.add_agent(agent2)
print("\nAnfängliche Umgebung (2):", env2.status, "Standort:", env2.location)
env2.run(steps=5)
print("Endgültige Umgebung (2):", env2.status, "Standort:", env2.location)
Dieses Skript definiert eine VacuumEnvironment und einen SimpleVacuumAgent unter Verwendung der SimpleReflexAgent Klasse des AIMA Python Frameworks. Die Regeln des Agenten bestimmen seine Aktionen ausschließlich basierend auf seiner aktuellen Wahrnehmung (Standort und Schmutzstatus).
Stärken: Ausgezeichnet zum Lernen der Grundlagen der KI, klare Implementierungen klassischer Algorithmen, leichtgewichtig.
Schwächen: Nicht für die Produktion konzipiert, eingeschränkte Funktionen im Vergleich zu vollwertigen SDKs, hauptsächlich für akademische Zwecke.
Idealer Anwendungsfall: Bildung, Forschung, Prototyping konzeptioneller KI-Agenten, Verständnis von Agentenparadigmen.
SDK 3: Microsoft Bot Framework – Bot-Entwicklung auf Unternehmensniveau
Überblick
Das Microsoft Bot Framework ist eine umfassende Plattform zum Erstellen, Verbinden, Bereitstellen und Verwalten intelligenter Bots über verschiedene Kanäle hinweg. Es bietet Tools, SDKs und Dienste, die Entwicklern ermöglichen, konversationelle Schnittstellen zu erstellen, die natürliche Sprache verstehen, sich im Dialog engagieren und mit Backend-Systemen integrieren können. Es ist besonders stark für Unternehmensanwendungen und nutzt andere Microsoft Azure-Dienste wie Azure Cognitive Services (z. B. LUIS für NLU).
Hauptmerkmale
- Mehrkanalunterstützung: Verbindet sich mit beliebten Kanälen wie Teams, Slack, Facebook Messenger, Web-Chat usw.
- Bot Builder SDKs: Verfügbar für C#, JavaScript, Python und Java.
- Adaptive Dialoge: Fortschrittliches Dialogmanagement für komplexe Gesprächsabläufe.
- Sprachverständnis (LUIS): Microsofts NLU-Dienst für Absichtserkennung und Entitätserkennung.
- QnA Maker: Dienst zum schnellen Erstellen von Bots, die FAQs beantworten können.
- Integration mit Azure: reibungslose Integration mit anderen Azure-Diensten für Intelligenz, Speicherung und Rechenleistung.
Praktisches Beispiel: Ein einfacher Echo-Bot (Python)
Erstellen wir einen einfachen Echo-Bot mit dem Microsoft Bot Framework SDK für Python. Dieser Bot wiederholt einfach, was der Benutzer sagt.
Zuerst, installieren Sie das SDK:
pip install botbuilder-core botbuilder-schema botbuilder-dialogs aiohttp
Erstellen Sie eine Datei mit dem Namen app.py:
import asyncio
from datetime import datetime
from aiohttp import web
from botbuilder.core import BotFrameworkAdapter, BotFrameworkAdapterSettings, TurnContext
from botbuilder.schema import Activity, ActivityTypes
# Die APP_ID und APP_PASSWORD Ihres Bots können hier konfiguriert werden.
# Für lokale Tests können diese oft leer gelassen werden.
SETTINGS = BotFrameworkAdapterSettings(
app_id="",
app_password=""
)
# Erstellen Sie einen Adapter. Der Adapter ist verantwortlich für die Verarbeitung eingehender HTTP-Anfragen
# und das Erstellen eines TurnContext für jeden Aufruf.
adapter = BotFrameworkAdapter(SETTINGS)
async def on_error(context: TurnContext, error: Exception):
"""Callback für Fehler während eines Turns."""
print(f"\n [on_error] unbehandelter Fehler: {error}")
# Senden Sie eine Nachricht an den Benutzer
await context.send_activity("Der Bot hat einen Fehler oder Bug festgestellt.")
await context.send_activity("Um diesen Bot weiterhin auszuführen, beheben Sie bitte den Code des Bots.")
# Senden Sie eine Trace-Aktivität
trace_activity = Activity(
label="TurnError",
name="on_error Exception",
timestamp=datetime.utcnow(),
type=ActivityTypes.trace,
value=f"Exception: {error}",
value_type="https://schema.org/Exception",
)
await context.send_activity(trace_activity)
adapter.on_turn_error = on_error
class MyBot:
"""Ein einfacher Echo-Bot, der wiederholt, was der Benutzer sagt."""
async def on_turn(self, turn_context: TurnContext):
if turn_context.activity.type == ActivityTypes.message:
await turn_context.send_activity(f"Sie haben gesagt: {turn_context.activity.text}")
elif turn_context.activity.type == ActivityTypes.conversation_update:
# Verarbeiten Sie die Aktualisierungen des Gesprächs, z. B. wenn ein Benutzer dem Gespräch beitritt
if turn_context.activity.members_added:
for member in turn_context.activity.members_added:
if member.id != turn_context.activity.recipient.id:
await turn_context.send_activity("Hallo und willkommen!")
else:
await turn_context.send_activity(f"[{turn_context.activity.type} Ereignis erkannt]")
# Erstellen Sie die Bot-Instanz
BOT = MyBot()
async def messages(request):
"""Haupt-Endpunkt für Bot-Nachrichten."""
if "application/json" in request.headers["Content-Type"]:
body = await request.json()
else:
return web.Response(status=415)
activity = Activity().deserialize(body)
auth_header = request.headers["Authorization"] if "Authorization" in request.headers else ""
try:
# Verarbeiten Sie die Aktivität mit der Logik des Bots
response = await adapter.process_activity(activity, auth_header, BOT.on_turn)
if response:
return web.json_response(data=response.body, status=response.status)
return web.Response(status=200)
except Exception as e:
return web.Response(status=500, text=str(e))
app = web.Application()
app.router.add_post("/api/messages", messages)
if __name__ == "__main__":
try:
web.run_app(app, host="localhost", port=3978)
except Exception as e:
print(f"Fehler beim Starten des Servers: {e}")
Führen Sie die Anwendung aus:
python app.py
Um dies lokal zu testen, benötigen Sie den Bot Framework Emulator. Laden Sie ihn von der offiziellen Microsoft Bot Framework-Website herunter. Nach der Installation öffnen Sie den Emulator und verbinden Sie sich mit http://localhost:3978/api/messages.
Stärken: Unternehmensbereit, umfangreiche Dokumentation, Mehrkanalunterstützung, enge Integration mit Azure-Diensten (NLU, Sprache, QnA), solides Dialogmanagement.
Schwächen: Kann für einfache Bots komplex sein, starke Bindungen an das Microsoft-Ökosystem, kann Azure-Kosten verursachen.
Idealer Anwendungsfall: Unternehmens-Chatbots, Kundenservice-Bots, interne organisatorische Assistenten, komplexe konversationale Anwendungen, die Skalierbarkeit und Integration mit anderen Microsoft-Diensten erfordern.
SDK 4: LangChain – Der Orchestrator für mit LLM betriebenen Agenten
Überblick
LangChain ist ein sich schnell entwickelndes Framework, das entwickelt wurde, um die Erstellung von Anwendungen zu vereinfachen, die von großen Sprachmodellen (LLMs) angetrieben werden. Obwohl es sich nicht um ein Agenten-SDK im traditionellen Sinne von BDI (Belief-Desire-Intention) Agenten handelt, bietet LangChain eine leistungsstarke Abstraktionsschicht und ein Set von Werkzeugen zur Erstellung anspruchsvoller LLM-gesteuerter Agenten. Diese Agenten können schlussfolgern, Werkzeuge verwenden und mit verschiedenen Datenquellen interagieren, was es zu einem entscheidenden Framework für die neue Generation von KI-Anwendungen macht.
Hauptmerkmale
- Ketten: Kombinieren Sie LLMs mit anderen Komponenten (z. B. Eingabemuster, Parser), um Sequenzen von Operationen zu bilden.
- Agenten: LLMs, die darüber nachdenken können, welche Werkzeuge wann verwendet werden sollen, um ein Ziel zu erreichen.
- Speicher: Erfüllt Ketten und Agenten mit Zustandsfähigkeit, damit sie sich an vergangene Interaktionen erinnern können.
- Werkzeuge: Abstraktionen für externe Ressourcen und APIs, mit denen Agenten interagieren können (z. B. Suchmaschinen, Rechner, Datenbanken).
- Dokumentenlader & Einbettungen: Werkzeuge zum Laden und Verarbeiten von Daten für retrieval-unterstützte Generierung.
Praktisches Beispiel: Ein einfacher Wikipedia-Suchagent
Erstellen wir einen LangChain-Agenten, der Wikipedia nutzen kann, um Fragen zu beantworten. Sie benötigen einen OpenAI-API-Schlüssel für das LLM.
Zuerst installieren Sie LangChain und die erforderlichen Abhängigkeiten:
pip install langchain openai wikipedia
Setzen Sie Ihren OpenAI-API-Schlüssel als Umgebungsvariable (oder direkt im Code, obwohl die Umgebungsvariable empfohlen wird).
export OPENAI_API_KEY='YOUR_OPENAI_API_KEY'
wikipedia_agent.py
import os
from langchain.agents import AgentType, initialize_agent, load_tools
from langchain.llms import OpenAI
# Initialisiere das LLM (z.B. OpenAI's GPT-3.5-turbo)
llm = OpenAI(temperature=0)
# Lade die Tools, die der Agent verwenden wird
# Das 'wikipedia'-Tool ermöglicht das Suchen in Wikipedia
# 'llm-math' ist ein einfaches Rechner-Tool
tools = load_tools(["wikipedia", "llm-math"], llm=llm)
# Initialisiere den Agenten mit dem LLM und den Tools
# AgentType.ZERO_SHOT_REACT_DESCRIPTION ist ein gängiger Agententyp,
# der das LLM verwendet, um zu entscheiden, welches Tool verwendet werden soll und welche Eingaben es erhalten soll.
agent = initialize_agent(
tools,
llm,
agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
verbose=True # Setze auf True, um den Denkprozess des Agenten zu sehen
)
# Beispiel Fragen für den Agenten
questions = [
"Was ist die Hauptstadt von Frankreich?",
"Wie viele Menschen leben in Paris?",
"Wer war der 44. Präsident der Vereinigten Staaten?",
"Was ist 123 * 456?"
]
for q in questions:
print(f"\n--- Frage: {q} ---")
try:
agent.run(q)
except Exception as e:
print(f"Ein Fehler ist aufgetreten: {e}")
Wenn du dieses Skript ausführst, wirst du den ‘Denkprozess’ des Agenten beobachten, wenn verbose=True gesetzt ist. Er wird die Frage analysieren, entscheiden, das ‘wikipedia’-Tool zu nutzen, eine Suchanfrage formulieren, das Tool ausführen und dann die abgerufenen Informationen verwenden, um die Frage zu beantworten.
Stärken: Ausgezeichnet für LLM-gestützte Anwendungen, modular und flexibel, reichhaltiges Ökosystem von Integrationen (Tools, Daten-Loader), schnell wachsende Community.
Schwächen: Schnelllebig (APIs können sich ändern), erfordert Verständnis der LLM-Konzepte, kann ressourcenintensiv sein (API-Aufrufe).
Idealer Anwendungsfall: Entwicklung intelligenter Agenten, die LLMs für Schlussfolgerungen, Informationsbeschaffung, komplexe Aufgabenautomatisierung und Interaktion mit externen Diensten nutzen.
Fazit: Das richtige Tool für deine agentische Reise wählen
Wie wir gesehen haben, ist die Welt der Agent SDKs vielfältig, wobei jedes Framework einzigartige Stärken bietet und auf unterschiedliche Anwendungsfälle abzielt. Es gibt keine universelle Lösung; das beste SDK für dein Projekt hängt stark von deinen spezifischen Anforderungen, der Art des Agenten, den du dir vorstellst, und deinem Entwicklungsökosystem ab.
- Rasa glänzt durch solide Conversational AI und bietet tiefe NLU- und Dialogmanagementfähigkeiten für Chatbots und virtuelle Assistenten.
- AIMA Python ist ein unschätzbares Bildungs- und Forschungstool zur Verständnis grundlegender AI-Agenten-Konzepte, perfekt für Prototyping und akademische Erkundungen.
- Microsoft Bot Framework bietet eine Unternehmenslösung zum Erstellen skalierbarer, kanalübergreifender Bots, insbesondere wenn es in das breitere Azure-Ökosystem integriert wird.
- LangChain ist an der Spitze der Entwicklung von LLM-gestützten Agenten und ermöglicht komplexe Schlussfolgerungen, die Nutzung von Tools und die Interaktion mit verschiedenen Datenquellen, um hochintelligente und anpassungsfähige Systeme zu schaffen.
Bevor du dich für ein SDK entscheidest, ziehe in Betracht, mit einigen Optionen Prototypen zu erstellen und ihre Lernkurve, Community-Unterstützung und wie gut sie in deinen vorhandenen Technologie-Stack integriert sind, zu bewerten. Die in diesem Tutorial bereitgestellten Beispiele sollten als praktischer Ausgangspunkt für die Erkundung dieser leistungsstarken Werkzeuge dienen. Indem du deine Bedürfnisse sorgfältig gegen die Fähigkeiten jedes SDK abwägst, kannst du selbstbewusst damit beginnen, intelligente Agenten zu entwickeln, die deine Anwendungen und Benutzererfahrungen transformieren.
🕒 Published: