Zukunftsbeständige IT: Übersicht aktueller IT-Trends

Erstellt von Adrian Bombelka am 23.07.2024 15:21:50
Adrian Bombelka

Einerseits betrachten wir im Rahmen unseres SADI-Prozess die bisher eingesetzten Anwendungen und Services. Dabei zeigt sich, dass wesentliche Erfolgsfaktoren das Verständnis und die Übersicht der aktuell eingesetzten Services sowie die Nutzerzufrieden sind. Wenn du mehr hierüber erfahren möchtest, kannst du gerne unseren vorherigen Blog-Beitrag lesen.

Anderseits richten wir unseren Blick in die Zukunft und geben einen Überblick, welche IT-Trends im Bereich Architektur betrachtet werden sollten. Diese IT-Trends prägen nachhaltig die aktuelle IT-Landschaft und ermöglichen nie dagewesene Mehrwerte. Diese technologischen Innovationen nehmen rasant zu. Ein Treiber dieses rasanten Wachstums ist die Tatsache, dass eine neue Technologie die Basis für vielfältige Trends bietet. In diesem Beitrag werfen wir einen Blick auf die wichtigsten IT-Trends, die IT-Verantwortliche in den kommenden Jahren beachten sollten, um ihre digitalen Strategien anzupassen und eine zukunftsbeständige IT bereitstellen zu können.

Cloudifizierung

Die Verlagerung der IT-Ressourcen aus dem lokalen Rechenzentrum in Public Clouds (wie Microsoft Azure, AWS) oder die Migration in SaaS-Lösungen (wie M365, Service Now) wird als Cloudifizierung bezeichnet. Dabei führt die Nutzung von Cloud-Services nicht pauschal zu Kosteneinsparungen. Allerdings bietet die Cloudifzierung viele Potenziale, welche einen Mehrwert und ggf. auch Kostenersparnisse bringen können (z. B. Software-Elastizität, Microservices, Pay-as-you-use). Die Cloud ermöglicht es, schnell auf veränderte Anforderungen und Marktbedingungen zu reagieren, neue Services und Funktionen zu integrieren sowie die IT-Infrastruktur zu optimieren. Letztendlich ist es entscheidend, die richtige Cloud-Strategie zu entwickeln, die zu den Zielen und Bedürfnissen des Unternehmens passt. Dabei sollten nicht nur Faktoren wie Kosten und Verfügbarkeit, sondern auch die Funktionalitäten sowie die Geschäftskritikalität berücksichtigt werden.

Multi-Cloud

Multi-Cloud ist ein Ansatz, bei dem IT-Infrastruktur auf mehrere Cloud-Anbietern verteilt werden. Dies kann aus strategischen Gründen sinnvoll sein, um eine Abhängigkeit von einem einzelnen Anbieter zu vermeiden und die Ausfallsicherheit zu erhöhen. Dabei umfasst dieser Trend auch die hybride Infrastruktur, bei der ein Teil der Anwendungen in einer Public Cloud betrieben wird (z. B. Web-Frontend, Servicedesk), während ein anderer Teil in einem lokalen Rechenzentrum verwaltet wird (z.B. Backup, Datenbanken). Dies kann zum Beispiel aus Datenschutz- oder Compliance-Gründen erforderlich sein.

Für eine effiziente Verwaltung einer Multi-Cloud-Umgebung empfiehlt sich der Einsatz von «Infrastructure-as-Code», um die IT-Ressourcen automatisiert auf den verschiedenen Plattformen zu administrieren. Dies ermöglicht eine einheitliche und flexible Bereitstellung und Skalierung der Ressourcen über verschiedene Cloud-Plattformen hinweg.

Microservices

Als Microservices werden IT-Architekturen bezeichnet, die aus einer Sammlung kleiner, autonomer Dienste besteht und zu einer funktionierenden Anwendung orchestriert werden. Die autonomen Dienste werden unabhängig voneinander entwickelt und bereitgestellt, was eine selektive Skalierung ermöglicht. So wird bei einem Webshop beispielsweise die Leistung bei zunehmenden Aufrufzahlen gesteigert, ohne die Leistung der Datenbank Infrastruktur anheben zu müssen. Jeder Microservice erfüllt eine spezifische Funktion und kommuniziert mit anderen Diensten über definierte Schnittstellen (z. B. Application Programming Interfaces). Insbesondere bei neu entwickelter Software sollte eine Entwicklung in Microservices bevorzugt werden, um eine bedarfsgerechte Skalierung sowie Zukunftssicherheit gewährleisten zu können.

Serverless

Wenn man den Gedanken von Microservices konsequent weiterdenkt und die Services in deren einzelne Funktionen aufteilt, ergibt sich die Möglichkeit Function-as-a-Service (FaaS) zu nutzen. Dieser Ansatz ermöglicht die Nutzung von IT-Ressourcen ohne Server-Infrastruktur. Cloud-Anbieter wie Microsoft oder AWS stellen vordefinierte Funktionen bereit, welche verbunden werden können und nativ auf der Backend-Infrastruktur der Anbieter betrieben werden. Dies ermöglicht eine gesteigerte Kosteneffizienz, da Unternehmen nur die tatsächlich genutzte Rechenleistung beim Aufruf einer Funktion zahlen. Dadurch kann der Betrieb von ungenutzten IT-Ressourcen vermieden werden. Zudem ermöglicht es eine hohe Skalierbarkeit, da die Cloud-Anbieter automatisch die Ressourcen anpassen, um den Bedarf zu decken.

AI

Dank des Einsatzes von Artificial Intelligence (AI) ergeben sich vielfältige Einsätze zur Optimierung des IT-Betriebs. So lassen sich die Systemüberwachungen sowie die Reaktionszeiten bei Störungen durch AI Ops-Lösungen signifikant verbessern und beschleunigen (z. B. Service Now ITOM, Defender for Identity). Hierbei erstellen Systeme automatisiert Routineaufgaben, erkennen Anomalien und verbessern die Sicherheitslage durch proaktive Bedrohungserkennung. Durch die Integration von AI Ops können Unternehmen ihre IT-Infrastruktur effizienter und sicherer gestalten.

Als Everyday AI werden Lösungen bezeichnet, die Mitarbeitende zur Unterstützung für ihre betrieblichen Alltagsaufgaben nutzen können (z. B. Microsoft Copilot for M365, ChatGPT, DeepL). Dabei liegt der Fokus dieser Lösungen darauf Routinearbeiten zu automatisieren oder zumindest massiv zu beschleunigen, in dem schneller die erforderlichen Informationen gefunden oder generiert werden. Um dies zu ermöglichen sind solche Lösungen direkt in den Anwendungen für den täglichen Gebrauch integriert und können jederzeit vom Nutzer, ohne die Anwendung zu wechseln, aufgerufen werden. So ist beispielsweise Microsofts Copilot for M365 in allen gängigen Office Anwendungen (u.a. Outlook, Teams, Word, Excel, Powerpoint) integriert und kann sofort aufgerufen werden. Mehr dazu kannst du in unserem 100 Tage Review lesen.

Zero Trust Security

Klassische IT-Security Massnahmen zielen auf starke und gut überwachte Einstiegsbarrieren (u.a. Firewalls). Diese Strategie ähnelt dem einer Burg. Große und dicke Mauern schützen das Innere, wenn man erstmal drin ist, kann man sich frei bewegen. Um jedoch in einer komplexer werdenden und zunehmend vernetzteren Umwelt sicher agieren zu können, sollte der Zero-Trust Ansatz verfolgt werden. Hierbei erfolgt eine kontinuierliche Überprüfung aller Ressourcen sowie Identitäten, privilegierte Vergabe von Berechtigungen, Mikrosegmentierung von Infrastrukturen und die Verschlüsselung von Dokumenten. Durch diese Massnahmen werden die potenziellen Sicherheitslücken oder Angriffsfläche für Dritte stark reduziert. Viele Organisationen, einschließlich der US-Bundesbehörden, richten sich nach dem NIST 800-207 Standard für Zero Trust, da dieser als umfassend und anbieterneutral gilt. Bildlich gesprochen könnte man sagen, dass jeder Bürger innerhalb der Burg eine eigene Rüstung trägt und an allen Räumen eine Ausweiskontrolle existiert.

Edge Computing

Bei Edge Computing wird die Rechenleistung sowie Datenspeicherung näher an die ursprüngliche Datenquelle (u.a. IoT-Geräte, Produktionsmaschinen) gebracht. Dadurch werden Latenzzeiten reduziert, schnellere Datenaggregation und daraus resultierend eine verbesserte Datenqualität ermöglicht. Durch die Verarbeitung von Daten direkt an dem Entstehungsort kann eine Echtzeit-Überwachung realisiert werden, welche unabhängig von der zentralen IT-Infrastruktur betrieben werden kann. Als weiterer Zusatzeffekt wird die zentrale IT-Infrastruktur entlastet, da nicht alle Produktionsdaten direkt in das Unternehmensnetzwerk übertragen werden. Insbesondere bei der Nutzung von Public Cloud Ressourcen führt dies zu einer Kostenersparnis, da keine Staging-Ebene für die Datenaggregation bereitgestellt oder unnötige Daten gespeichert werden muss.

Data Ops

Data Ops ist eine agile Methode zur Gestaltung, Implementierung und Wartung einer Datenarchitektur. Dabei sollen mit verschiedenen Systemen die Zusammenarbeit zwischen Dateningenieuren, -wissenschaftlern und -analysten verbessert werden, um Mehrwerte dank Big Data ermitteln zu können. Es handelt sich um kollaborative Datenmanagementplattformen, die darauf abzielen Automatisierung von Datenflüssen innerhalb einer Organisation zu verbessern. Dabei werden die Daten verschiedener Anwendungssysteme per API abgerufen und mit weiteren Daten orchestriert und kombiniert. Dies ermöglicht eine deutlich einfachere Verwendung der Daten und gleichzeitig eine vereinfachte Datenhaltung, da ein großes Datenwarehouse (Single-Point-of-Truth) erzeugt wird.

Teile gerne deine Meinung mit uns. Wir sind gespannt auf dein Feedback.

Wir werden in den kommenden Wochen über die einzelnen IT-Trends berichten. Daher abonniere unseren Blog und verschaffe dir einen Überblick, wie du diese Architektur-Trends auch für dich nutzbar machen kannst.

Bei Fragen stehen wir dir gerne persönlich zur Verfügung. Du erreichst uns unter marketing@bithawk.ch oder 058 226 01 01.


Weitere Themen auf unserem Blog

 

Themen: Enterprise Cloud