Deine AI-Plattform
Supporthub
Deine AI-Plattform
Supporthub
Der Supporthub dient als zentrale Oberfläche für die vollständig integrierbare AI-Plattform plugnpl.ai. Diese Plattform unterstützt Unternehmen dabei, ihre Effizienz durch Automatisierung und intelligente Lösungen zu steigern. Jedes beliebige LLM kann angeschlossen und mit den eigenen Unternehmensdaten verknüpft werden, bei voller Kontrolle über die eigenen Daten und die Zugriffsberechtigungen. Die Plattform bündelt verschiedene AI-gestützte Funktionen wie das Nutzen von Agents oder eine Echtzeit Übersetzung , um repetitive Aufgaben zu vereinfachen und zu optimieren. Unsere Lösung lässt sich nahtlos in die bestehende Systemlandschaft einbinden wie zum Beispiel die eigene Teams-Umgebung, die Unternehmenswebsite oder das Intranet. Im Rahmen einer Entwicklungspartnerschaft kann der Supporthub individuell weiterentwickelt und modifiziert werden, wobei Du auch von den Entwicklungen der Supporthub Community profitieren kannst. Killerfeatures!
Was interessiert Dich über den Supporthub?
- Unternehmensdaten sicher anbinden & nutzen
- Integrierte Websuche für aktuelle Ergebnisse
- Anbindung beliebig umfangreicher Sprachmodelle (LLMs)
- Agents unbegrenzt erstellen und nutzen
- Speech-to-Text Übersetzung
- Dialog Funktion – Input einsprechen, Output wird vorgelesen
- Texte übersetzen, umformulieren, zusammenfassen und korrigieren
- Code verstehen und schreiben
- Requirements and targets [Anforderungen und Ziele]
- Design principles [Design Prinzipien]
- Multi layer architecture [Multi-Layer Architektur]
- Infrastructure [Infratruktur]
- Continuous integration and deployment [Kontinuierliche Integration und Bereitstellung]
- Operating model [Betriebsmodelle]
- Geschwindigkeit
- Kosten
- Flexibilität
- Community
Funktionen
Der Supporthub verfügt über eine Vielzahl von praktischen Funktionen, die Du mit einem einzigen Klick nutzen kannst. Dein Arbeitsalltag kann dadurch im Handumdrehen effizienter und effektiver gestaltet werden.
Unternehmensdaten
Unternehmensspezifische Daten und Informationen können jedem beliebigen Sprachmodell (LLM) bereitgestellt werden. Bei der Antwortgenerierung werden dann relevante Inhalte aus diesen Unternehmensdaten berücksichtigt. Durch individuelle Berechtigungen kann der Zugriff für jedes Mitglied der Organisation gesteuert werden, wodurch eine Rechte- und Rollen-spezifische, unternehmensweite Nutzung dieser Technologie ermöglicht wird.
Web-Suche
Bei der Generierung von Antworten können relevante Inhalte aus externen Internetressourcen wie Websites und sozialen Medien aggregiert werden. Die Websuche integriert Microsoft Bing und kann neben Wikipedia- auch auf LinkedIn-Inhalte zugreifen. Dadurch wird die Aktualität, Breite und Relevanz des Outputs erhöht.
Anbindung beliebiger LLMs
Alle OpenAI- Modelle (GPT 3.5, GPT 4 und GPT 4o) sowie groq auf Llama 3- und Mixtral-Basis können bereits Out-of-the-Box integriert werden. Die SupportHub-Plattform ermöglicht es darüber hinaus, jedes beliebige weitere Modell mit sehr geringem Aufwand zusätzlich oder alternativ anzuschließen. Je nach Anforderungen der Suchanfrage kann ein anderes LLM ausgewählt werden. Zusätzlich wird die Abhängigkeit von einem einzigen Anbieter vermieden.
Eine optimierte Chat-Erfahrung
Die Benutzeroberfläche des Supporthubs bietet zahlreiche Funktionen, die den Umgang optimieren und dadurch reibungslos und angenehm machen.
Neuer Chat
- Beliebig viele neue Einzelchats eröffnen, um einen neuen Dialog zu beginnen.
Gruppenchat
- Gruppenchat mit beliebig vielen Personen in Deiner Organisation eröffnen
- Fragestellungen und Probleme AI-gestützt im Team lösen
- Anfragen und Output von Gruppenmitgliedern einsehen und darauf antworten
Chathistorie
- Jeder (Gruppen–) Chat wird chronologisch gespeichert und ist jederzeit wieder aufrufbar
- Ergebnisse können so gespeichert werden, Anfragen (Prompts) können zu einem späteren Zeitpunkt reproduziert und optimiert werden
- Anonymisierte Analysemöglichkeit der Chat-Themen der Organisation, um Informations- und Schulungsbedarfe zu identifizieren oder Trends und Tendenzen frühzeitig zu erkennen
Diktierfunktion
- Durch die Spracherkennung kann der Input eingesprochen werden, lästiges Eintippen entfällt, wodurch die AI-Nutzung in jeder Arbeitssituation ermöglicht wird
Real-time Übersetzung
- Gesprochener Text kann von nahezu jeder Ausgangs- in nahezu jede Zielsprache simultan übersetzt werden
- So werden sprachbarriere-freie Unterhaltungen möglich
Dialogfunktion
- Input und Output sind sprach-basiert, die Nutzung entspricht einer richtigen Unterhaltung
- Die Sprachgeschwindigkeit der Ausgabe des AI-Outputs kann eingestellt werden. Die Antworten können so schnell bzw. langsam gesprochen werden, wie es der Präferenz des jeweiligen Anwenders entspricht
Agents
- Agenten nutzen Prompts mit spezifischen Regeln und Kontexten zur Ergebnisgenerierung
- Die Erstellung des Prompts für den Agent kann mit Hilfe eines Prompt- Agents optimiert werden
- Bei Aktivierung des Agents entspricht das Ergebnis den Anweisungen im Prompt
- Agents können erstellt, bearbeitet und gelöscht werden
- Von Dir erstellte Agents kannst Du mit Deiner Organisation teilen
Multi-Agents
- Multi-Agent-Lösungen können erstellt werden, in denen jeweils ein Agent spezifische Aufgaben übernimmt; die daraus entstehenden Ergebnisse werden an weitere Agenten übergeben, welche sie überprüfen und weiterverarbeiten
Kopieren
- Der gesamte Output kann mit einem Klick in die Zwischenablage kopiert und in einer beliebigen Applikation weiterverwendet werden
Regenerieren
- Die Suchanfrage bzw. der Prompt wird erneut gestellt
- Bei der Regenerierung kein ein anderes Sprachmodel ausgewählt werden, dies kann zu anderen/ besseren Outputs führen
Vorlesen
- Der gesamte Output wird laut vorgelesen
- Die Vorlesegeschwindigkeit der Ausgabe kann eingestellt werden. Der Inhalt wird so schnell bzw. langsam vorgelesen, wie es der Präferenz des jeweiligen Anwenders entspricht
Bewerten
- Eine Bewertungsskala von 1-5 Sternen ermöglicht ein einfaches, wirkungsvolles Feedback zum Output
- Dadurch lernt das Sprachmodell was gute und schlechte Outputs sind und kann so weiter trainiert werden
Arbeiten mit Text
Ein effizientes und produktives Arbeiten mit Texten ist in jedem Bereich essenziell. Unsere hierfür integrierten Funktionen ermöglichen dies „auf Knopdruck“.
Richtige Schreibweise
Übersetzen
Umformulieren
Zusammenfassen
Arbeiten mit Code
Der Zugang zu Codingwissen ermöglicht eine vielfältige Unterstützung im Umgang mit Codes.
Code erstellen
Code erläutern
Code abändern
Architektur
Hinter dem Supporthub steckt die AI-Plattform plugnpl.ai, die durch modernste Softwareentwicklung und Infrastruktur für maximale Flexibilität sorgt. plugnpl.ai ist aus der Praxis für Dein Unternehmen entwickelt worden und kann genau auf Deine Bedürfnisse zugeschnitten werden.
Unsere requirements and targets an plugnpl.ai bilden die Basis der design principles für die Plattform. Diese Grundsätze sind die Voraussetzungen der Architektur, die unter der Infrastruktur liegt. Mit dieser Grundlage ist eine nahtlose Integration und Bereitstellung möglich, wobei das operation model der AI-Plattform auf Deine Bedürfnisse angepasst werden kann: Von einem Betrieb auf Deiner Infrastruktur oder bis hin zur SaaS.
Schöpfe das volle Potenzial des Supporthubs aus.
Werde als Entwicklungspartner von just experts Teil unserer plugnpl.ai-Community!
Geschwindigkeit
Die Implementierung von plugnpl.ai in Deine Umgebung ist dank nahtloser M365 Integration innerhalb weniger Stunden möglich. Eine Eigenentwicklung einer vergleichbaren Plattform beansprucht Monate oder Jahre.
Kosten
Die anfallenden Kosten entsprechen schätzungsweise 10% der Kosten, die bei einer eigenständigen Entwicklung entstehen würden.
Flexibilität & Unabhängigkeit
Wegen der flexiblen Struktur der Plattform ist ein Vendor Lock-in ausgeschlossen, Du bist also nicht abhängig von einem Anbieter oder Produkt. Sollten zukünftigbessere LLMs entwickelt werden, kannst du mühelos auf ein für dich passenderes Modell wechseln.
Community
Als Teil der Plugnpl.ai-Community profitierst Du von den Ideen und Inputs weiterer Entwicklungspartner. Potenzielle Entwicklungskosten weiterer Features und Funktionen können auf mehrere Schultern verteilt und Wissen und Erfahrungen untereinander geteilt werden.