diff --git a/main.py b/main.py index c5f3ebf..e0a1976 100644 --- a/main.py +++ b/main.py @@ -5,7 +5,8 @@ import subprocess import sqlite3 import asyncio import openai -import google.generativeai as genai +from google import genai +from google.genai import types import json from fastapi import FastAPI, WebSocket, BackgroundTasks, Request, Form, WebSocketDisconnect from fastapi.responses import RedirectResponse @@ -43,7 +44,7 @@ async def get_ai_response(user_input): elif AI_PROVIDER == "ollama": # Ollama nutzt das OpenAI-Format, braucht aber keinen Key - client = openai.OpenAI(base_url=OLLAMA_BASE_URL, api_key="ollama") + client = openai.OpenAI(base_url=OLLAMA_BASE_URL, api_key="ollama", timeout=20.0) response = client.chat.completions.create( model="llama3", # Oder dein bevorzugtes Modell messages=[{"role": "system", "content": SYSTEM_PROMPT}, {"role": "user", "content": user_input}] @@ -51,10 +52,17 @@ async def get_ai_response(user_input): return response.choices[0].message.content elif AI_PROVIDER == "google": - genai.configure(api_key=GOOGLE_API_KEY) - model = genai.GenerativeModel('gemini-1.5-flash') - # Gemini braucht einen etwas anderen Aufbau für System Prompts - response = model.generate_content(f"{SYSTEM_PROMPT}\n\nNutzer: {user_input}") + # Initialisierung des neuen Clients + client = genai.Client(api_key=GOOGLE_API_KEY) + + # Generierung mit dem neuen SDK + response = client.models.generate_content( + model='gemini-2.5-flash', + contents=user_input, + config=types.GenerateContentConfig( + system_instruction=SYSTEM_PROMPT + ) + ) return response.text return "Fehler: Kein KI-Provider konfiguriert."