Zum Hauptinhalt springen

MitteilungVeröffentlicht am 5. Februar 2026

May «AI» help you? KI im Berufsalltag

Künstliche Intelligenz KI oder «AI» (Artificial Intelligence) hält seit einiger Zeit Einzug im beruflichen Alltag.

Auf dem Foto sieht man ein Bild des humanoiden Roboters Pepper

Mit dem Begriff «Künstliche Intelligenz (KI)» wird die Fähigkeit einer Maschine beschrieben, menschliche Begabungen wie logisches Denken, Lernen und Kreativität zu imitieren. Die KI kann riesige Datenmengen verarbeiten und analysieren.

Large Language Modelle (LLM) etwa sind Computerprogramme, die mit grossen Textmengen trainiert werden und lernen, Sprachmuster zu erkennen.

LLM können auf Fragen antworten, Texte zusammenfassen oder übersetzten. Viele sprachbasierte KI-Modelle nützen die Technik der LLM, z. Bsp. auch der bekannte, von der Firma OpenAI entwickelte Chatbot ChatGPT.

Moderne KI-Modelle

Weitere KI-Modelle basieren auf der Technologie von «Deep Learning». Mit dieser Technik werden Merkmale aus komplexen Datenmuster verarbeitet und analysiert. Diese Methode ermöglicht beispielsweise die Identifizierung von Personen, Fahrzeugen und Hindernissen für das autonome Fahren.

Künstliche Intelligenz in der Arbeitswelt: verschiedene Modelle

Bei der täglichen Arbeit wird verstärkt auf die Hilfe von Künstlicher Intelligenz gezählt. Insbesondere werden KI-Tools bei der Recherche im Internet und in der elektronischen Textverarbeitung verwendet.

Der aktuell bekannteste Chatbot ist ChatGPT. Der 2022 von der Firma OpenAI vorgestellte Chatbot basiert auf einem Large Language Modell, welcher mit einer Vielzahl von Textmaterial trainiert wurde.

2023 entwickelte Google das KI-Sprachmodell «Gemini» als Alternative zu anderen KI-Modellen. Auch diese KI bietet vielseitige Anwendungen wie Textverständnis, Textgenerierung und Datenanalyse.

Die Suchmaschine Perplexity wurde 2022 ins Leben gerufen und verarbeitet Anfragen mit Hilfe von Künstlicher Intelligenz. Diese KI liefert bei Antworten stets eine Quelle. Perplexity greift für die Textgenerierung auf Informationen mit inhaltlicher Tiefe zurück.

KI in der Bundesverwaltung

Die Bundesverwaltung verfügt mit dem Kompetenznetzwerk für künstliche Intelligenz CNAI über eine Anlaufstelle für dein Einsatz von künstlicher Intelligenz.

Der vom Bundesrat zur Kenntnis genommene Umsetzungsplan beinhaltet mehrere Aufgaben und Massnahmen wie die bundesweite Erfassung des Potenzials von KI für die Optimierung von Prozessen, die Bereitstellung eines bundesinternen generativen KI-Systems und die Erarbeitung des Handbuchs für den Einsatz von KI-Systemen für Mitarbeitende.

Die Bundesverwaltung verfügt über ein Regelwerk mit sieben Leitlinien für den Umgang mit künstlicher Intelligenz. Dabei steht der Mensch beim Einsatz der KI im Mittelpunkt und der Bund soll Rahmenbedingungen ermöglichen, dass KI für eine Stärkung von Wertschöpfung und nachhaltiger Entwicklung genutzt werden kann.

Weitere Leitlinien sind Transparenz und Nachvollziehbarkeit von durch KI gestützte Entscheidungsprozesse sowie die Entwicklung sicherer, robuster und resilienter KI-Systeme, welche nicht anfällig für Missbrauch und Fehlanwendungen sein sollen.

Beispiele aus der Praxis

Das Bundesamt für Informatik und Telekommunikation BIT setzt den Chatbot RoBIT ein, der bei IT-Problemen hilft und Tipps für die Behebung von IT-Problemen gibt.

Das Schweizerische Bundesarchiv BAR verfolgt seit 2021 den Ansatz «digital first». Die Strategie 2026-2030 beinhaltet die Optimierung und Automatisierung von Archivierungsprozessen und verfügt seit 2025 über einen Chatbot, der Nutzerinnen und Nutzer online bei Fragen unterstützt.

Die BiG bietet Mitarbeitenden der Bundesverwaltung und Armee kurze Webinare zu verschiedenen Themen wie z. Bsp. «erfolgreich recherchieren mit KI» an. Informationen dazu finden Sie hier: Webinare.

Risiken bei der Nutzung von Künstlicher Intelligenz

Textbasierte KI-Modelle sind nützliche Werkzeug für die tägliche Arbeit. Es gibt jedoch mehrere Punkte zu beachten. Chatbots und weitere KI-Anwendungen sind nicht unfehlbar und können falsche Informationen liefern.

KI-basierte Anwendungen sind nicht per se objektiv und können Verzerrungen hervorrufen, wenn die Trainingsdaten nicht repräsentativ sind und nicht nachvollziehbar ist, wie diese Entscheidungen treffen. Die Rede ist von «Bias» und der «Black-Box-Problematik».

Weiterführende Informationen