This repository has been archived on 2024-08-28. You can view files and clone it, but cannot push or open issues or pull requests.
crew-ai-codecollection/research-gui.py
2024-04-05 15:07:14 +02:00

103 lines
3.9 KiB
Python

# pip install arxiv
import os
import gradio as gr
from crewai import Agent, Task, Crew, Process
# Importieren Sie die benötigten Tools
from langchain_community.llms import Ollama
from langchain_community.tools import DuckDuckGoSearchRun
# ChatCPT 3.5 importieren
from langchain_openai import ChatOpenAI
turbo35 = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0.7)
# Wikipedia Suche importieren
from langchain_community.tools.wikipedia.tool import WikipediaQueryRun
from langchain_community.utilities.wikipedia import WikipediaAPIWrapper
from langchain_community.tools.arxiv.tool import ArxivQueryRun
# Initialisieren Sie die Tools
ollama_llm = Ollama(model="mistral")
search_tool = DuckDuckGoSearchRun()
wikipedia = WikipediaQueryRun(api_wrapper=WikipediaAPIWrapper())
arxiv = ArxivQueryRun()
# Definieren Sie Ihre Agenten mit Rollen und Zielen
informations_sammler = Agent(
role='Forscher',
goal='Sammeln von Basisinformationen und Zitate zum Thema',
backstory="""Spezialisiert auf die Sammlung und Analyse von Grundinformationen und wichtiger Zitate.""",
verbose=True,
allow_delegation=False,
llm=ollama_llm
)
informations_verifizierer = Agent(
role='Datenanalyst',
goal='Verifizieren und Erweitern der Informationen durch Websuche. Füge Zitate und Urls als Belege hinzu. Entferne falsche Informationen aus den Ergebnissen. Suche nach weiteren Informationen und Zitaten gegebenenfalls über deutsche und englische Wikipedia. Nutze geignete Begriffe für die Suche in Arxiv.',
backstory="""Experte in der Überprüfung von Informationen und der Erweiterung durch effektive Websuchen.""",
verbose=True,
allow_delegation=False,
tools=[search_tool,wikipedia,arxiv],
llm=ollama_llm
)
informations_organisator = Agent(
role='Inhaltsmanager',
goal='Gliedern der Informationen, Zitate und Links nach Kategorien',
backstory="""Zuständig für die Organisation der gesammelten Informationen in einer strukturierten Form.""",
verbose=True,
allow_delegation=False,
llm=ollama_llm
)
# Erstellen Sie Aufgaben für Ihre Agenten
task1 = Task(
description="""Sammle grundlegende Informationen über eun Thema.""",
#agent=informations_sammler,
expected_output="""Eine Zusammenfassung von Basisinformationen über das Thema,
einschließlich Definitionen, wichtigsten Fakten und allgemeinem Überblick."""
)
task2 = Task(
description="""Verifiziere die gesammelten Informationen und erweitere sie durch zusätzliche Websuchen.""",
#agent=informations_verifizierer,
expected_output="""Eine verifizierte und erweiterte Liste von Informationen zu Thema X,
inklusive zusätzlicher Quellen und tiefergehenden Einsichten."""
)
task3 = Task(
description="""Erzeuge aus den gesammelten und verifizierten Informationen einegeliedertes Essay von 2000 Worten, dass die Zusammenstellung der recherchierten und verifizierten Informationen mit entsprechenden Quellenangaben berücksichtigt.""",
#agent=informations_organisator,
expected_output="""Ein gut strukturiertes Dokument, das die Informationen zu Thema X
klar gegliedert präsentiert, für einen umfassenden einblick in das Thema."""
)
# Instanziieren Sie Ihre Crew mit einem sequenziellen Prozess
crew = Crew(
agents=[informations_sammler, informations_verifizierer, informations_organisator],
tasks=[task1, task2, task3],
verbose=2,
manager_llm=turbo35,
process=Process.hierarchical
)
# Starten Sie den Arbeitsprozess!
def cli_interface(thema):
task1.description = thema
result = crew.kickoff()
return result
iface = gr.Interface(
fn=cli_interface,
inputs=gr.Textbox(lines=2, placeholder="Recherche zu welchem Theme", value=""),
outputs="text",
title="Recherche",
description="Führt eine Recherche zu einem bestimmten Thema durch und organisiert die gesammelten Informationen."
)
iface.launch(share=False)