Big Data
Datenmengen, die zu groß, zu komplex oder zu schnelllebig sind, um mit traditionellen Methoden verarbeitet zu werden. Charakteristisch sind Volume, Velocity und Variety.
Das Glossar erläutert zentrale Begriffe aus Big Data, künstlicher Intelligenz, Cloud-Architekturen und moderner Softwareentwicklung. Die Stichworte sind praxisnah formuliert und dienen als Nachschlagewerk für Entscheidende und Fachabteilungen.
Datenmengen, die zu groß, zu komplex oder zu schnelllebig sind, um mit traditionellen Methoden verarbeitet zu werden. Charakteristisch sind Volume, Velocity und Variety.
Prozess, bei dem Daten aus Quellen extrahiert, transformiert und in Zielsysteme geladen werden. Grundlage für Data Warehouses und Business Intelligence.
Anreicherung bestehender Daten mit externen Informationen, um Analysen zu verbessern und Entscheidungen zu präzisieren.
Repository für strukturierte und unstrukturierte Rohdaten. Dient als flexible Basis für Analysen, Machine Learning und Data Science.
Zentrales, strukturiertes Datenlager für Reporting und Analyse. Aggregiert Informationen aus unterschiedlichen Quellsystemen.
Automatisierter Workflow, der Daten von der Quelle zum Zielsystem bewegt und dabei Qualität, Validierung und Monitoring sicherstellt.
Echtzeit-Verarbeitung kontinuierlicher Datenströme wie Sensoren oder Clickstreams. Ermöglicht sofortige Reaktionen und Live-Dashboards.
Überbegriff für Systeme, die Aufgaben lösen, die menschliche Intelligenz erfordern – inklusive regelbasierter Verfahren, Machine Learning und Deep Learning.
Algorithmen, die aus Daten Muster erkennen und Vorhersagen treffen. Unterschieden wird in Supervised, Unsupervised und Reinforcement Learning.
Spezialform des Machine Learning mit tiefen neuronalen Netzen. Besonders geeignet für Bild-, Sprach- und Textverarbeitung.
Modelle, die neue Inhalte erzeugen – etwa Texte, Bilder oder Code. Beispiele sind GPT-4, Claude oder Stable Diffusion.
Große neuronale Sprachmodelle, die natürliche Sprache verstehen und erzeugen können. Grundlage vieler Chatbots und Assistenten.
Verarbeitung natürlicher Sprache durch Computer – von Sentiment-Analysen bis zu Übersetzung und Question-Answering.
Automatische Auswertung von Bildern und Videos, etwa zur Objekterkennung, Qualitätskontrolle oder medizinischen Analyse.
Vorhersage zukünftiger Ereignisse auf Basis historischer Daten. Einsatzfelder reichen von Nachfrageplanung bis Fraud Detection.
Konversationelles Interface, das per Text oder Sprache mit Nutzerinnen interagiert. Reicht von regelbasierten Systemen bis zu LLM-basierten Assistenten.
Weitertrainieren eines vortrainierten Modells auf unternehmensspezifische Daten, um Genauigkeit und Relevanz zu erhöhen.
Kombination aus Wissensretrieval und generativer KI. Modelle greifen auf kuratierte Dokumente zu und erzeugen darauf basierende Antworten.
Bereitstellung von IT-Ressourcen über das Internet. Unterteilt in IaaS, PaaS und SaaS mit Vorteilen wie Skalierbarkeit und Pay-per-Use.
Schnittstelle, über die Systeme Daten und Funktionen austauschen. REST und GraphQL sind gängige Paradigmen.
Architekturprinzip, bei dem Anwendungen aus kleinen, unabhängig deploybaren Services bestehen.
Leichtgewichtige Laufzeitumgebungen, die Anwendung und Abhängigkeiten bündeln. Ermöglichen portable Deployments über verschiedene Umgebungen.
Iterativer Entwicklungsansatz mit kurzen Sprints, kontinuierlichem Feedback und enger Zusammenarbeit mit Stakeholdern.
Produkt mit minimalen Funktionen, das Hypothesen schnell testet und Nutzerfeedback früh einholt.
Continuous Integration und Continuous Deployment automatisieren Build, Test und Auslieferung, um schneller und zuverlässiger zu releasen.
Kultur und Praxis, die Entwicklung und Betrieb vereint. Ziel sind automatisierte Workflows, Monitoring und eine gemeinsame Verantwortung für Software.