Technisches Glossar

Das Glossar erläutert zentrale Begriffe aus Big Data, künstlicher Intelligenz, Cloud-Architekturen und moderner Softwareentwicklung. Die Stichworte sind praxisnah formuliert und dienen als Nachschlagewerk für Entscheidende und Fachabteilungen.

Big Data & Data Processing

Big Data

Datenmengen, die zu groß, zu komplex oder zu schnelllebig sind, um mit traditionellen Methoden verarbeitet zu werden. Charakteristisch sind Volume, Velocity und Variety.

ETL (Extract, Transform, Load)

Prozess, bei dem Daten aus Quellen extrahiert, transformiert und in Zielsysteme geladen werden. Grundlage für Data Warehouses und Business Intelligence.

Data Enrichment

Anreicherung bestehender Daten mit externen Informationen, um Analysen zu verbessern und Entscheidungen zu präzisieren.

Data Lake

Repository für strukturierte und unstrukturierte Rohdaten. Dient als flexible Basis für Analysen, Machine Learning und Data Science.

Data Warehouse

Zentrales, strukturiertes Datenlager für Reporting und Analyse. Aggregiert Informationen aus unterschiedlichen Quellsystemen.

Data Pipeline

Automatisierter Workflow, der Daten von der Quelle zum Zielsystem bewegt und dabei Qualität, Validierung und Monitoring sicherstellt.

Stream Processing

Echtzeit-Verarbeitung kontinuierlicher Datenströme wie Sensoren oder Clickstreams. Ermöglicht sofortige Reaktionen und Live-Dashboards.

Künstliche Intelligenz & Machine Learning

Künstliche Intelligenz

Überbegriff für Systeme, die Aufgaben lösen, die menschliche Intelligenz erfordern – inklusive regelbasierter Verfahren, Machine Learning und Deep Learning.

Machine Learning

Algorithmen, die aus Daten Muster erkennen und Vorhersagen treffen. Unterschieden wird in Supervised, Unsupervised und Reinforcement Learning.

Deep Learning

Spezialform des Machine Learning mit tiefen neuronalen Netzen. Besonders geeignet für Bild-, Sprach- und Textverarbeitung.

Generative KI

Modelle, die neue Inhalte erzeugen – etwa Texte, Bilder oder Code. Beispiele sind GPT-4, Claude oder Stable Diffusion.

Large Language Model (LLM)

Große neuronale Sprachmodelle, die natürliche Sprache verstehen und erzeugen können. Grundlage vieler Chatbots und Assistenten.

Natural Language Processing (NLP)

Verarbeitung natürlicher Sprache durch Computer – von Sentiment-Analysen bis zu Übersetzung und Question-Answering.

Computer Vision

Automatische Auswertung von Bildern und Videos, etwa zur Objekterkennung, Qualitätskontrolle oder medizinischen Analyse.

Predictive Analytics

Vorhersage zukünftiger Ereignisse auf Basis historischer Daten. Einsatzfelder reichen von Nachfrageplanung bis Fraud Detection.

Chatbot

Konversationelles Interface, das per Text oder Sprache mit Nutzerinnen interagiert. Reicht von regelbasierten Systemen bis zu LLM-basierten Assistenten.

Fine-Tuning

Weitertrainieren eines vortrainierten Modells auf unternehmensspezifische Daten, um Genauigkeit und Relevanz zu erhöhen.

RAG (Retrieval-Augmented Generation)

Kombination aus Wissensretrieval und generativer KI. Modelle greifen auf kuratierte Dokumente zu und erzeugen darauf basierende Antworten.

Cloud & Infrastruktur

Cloud Computing

Bereitstellung von IT-Ressourcen über das Internet. Unterteilt in IaaS, PaaS und SaaS mit Vorteilen wie Skalierbarkeit und Pay-per-Use.

API (Application Programming Interface)

Schnittstelle, über die Systeme Daten und Funktionen austauschen. REST und GraphQL sind gängige Paradigmen.

Microservices

Architekturprinzip, bei dem Anwendungen aus kleinen, unabhängig deploybaren Services bestehen.

Container (Docker)

Leichtgewichtige Laufzeitumgebungen, die Anwendung und Abhängigkeiten bündeln. Ermöglichen portable Deployments über verschiedene Umgebungen.

Entwicklung & Methodik

Agile Entwicklung

Iterativer Entwicklungsansatz mit kurzen Sprints, kontinuierlichem Feedback und enger Zusammenarbeit mit Stakeholdern.

MVP (Minimum Viable Product)

Produkt mit minimalen Funktionen, das Hypothesen schnell testet und Nutzerfeedback früh einholt.

CI/CD

Continuous Integration und Continuous Deployment automatisieren Build, Test und Auslieferung, um schneller und zuverlässiger zu releasen.

DevOps

Kultur und Praxis, die Entwicklung und Betrieb vereint. Ziel sind automatisierte Workflows, Monitoring und eine gemeinsame Verantwortung für Software.