Köln
Brandgeruch: Großeinsatz am Kölner Dom

0

Köln – Am Mittwochnachmittag sind Polizei und Feuerwehr zu einem Großeinsatz am Kölner Dom ausgerückt. Auslöser war nach ersten Informationen ein gemeldeter Brandgeruch im Bereich des Südturms.

Gegen 14 Uhr ging bei der Feuerwehr ein entsprechender Notruf ein. Daraufhin rückten zahlreiche Einsatzkräfte an, darunter Feuerwehrleute mit Atemschutzausrüstung. Insgesamt waren rund 70 Kräfte vor Ort, unterstützt von der Polizei.

Der Dom wurde im Zuge des Einsatzes vollständig geräumt. Betroffen waren neben der Kathedrale auch die Turmbesteigung sowie die Schatzkammer. Auch die Umgebung rund um das Wahrzeichen wurde weiträumig abgesichert.

Trotz intensiver Suche konnten die Einsatzkräfte zunächst weder offenes Feuer noch eine Rauchentwicklung feststellen. Auch eine eingesetzte Drohne brachte keine Hinweise auf einen Brandherd.

Nach Angaben von Reportern vor Ort war zwar zeitweise ein Brandgeruch wahrnehmbar, sichtbarer Rauch wurde jedoch nicht festgestellt. Die Feuerwehr durchsuchte daraufhin das Gebäude systematisch, um mögliche Ursachen auszuschließen.

Der Einsatz dauerte rund anderthalb Stunden. Gegen 15:30 Uhr wurde der Großeinsatz beendet. Nach bisherigen Erkenntnissen handelte es sich um einen Fehlalarm.

 

 


AUCH INTERESSANT

Langzeitpflege braucht organisationsbezogene Gewaltschutzkonzepte

Aktienmarkt
Der „Korea-Discount“ schwindet – die Bewährungsprobe folgt

Von Dina Ting

Dem südkoreanischen Aktienmarkt haben positive Entwicklungen selten gefehlt. Was ihm jedoch fehlte, war die beständige Überzeugung der Anleger.

Nach seiner beeindruckenden Rallye im Jahr 2025 und in den ersten Monaten dieses Jahres hat der Markt die Anleger dazu gebracht, ihre Meinung zu revidieren. Sie hatten die Aktien lange Zeit als „aus gutem Grund günstig“ abgetan. Doch gerade als sich die Stimmung zu wenden begann, trat Anfang dieses Jahres die Geopolitik auf den Plan.

Der Iran-Konflikt und der daraus resultierende Anstieg der Energiepreise haben eine Schwachstelle erinnert, die nie ganz verschwunden war. Für eine Wirtschaft, die den Großteil ihres Energiebedarfs importiert, können solche Schocks schnell in die Industriekosten einfließen, die Margen unter Druck setzen und ausländische Investitionsströme verunsichern.

Dies ist jedoch kein neues Problem. Wir sehen jedoch Grund zu der Annahme, dass es sich hierbei eher um überschaubare Unternehmenskosten für Südkorea handelt als um eine strukturelle Einschränkung.

Man könnte es so sehen: Während die Energieversorgung ein Engpass darstellt, fungiert die Technologie zunehmend als Ventil. Südkorea befindet sich an einem entscheidenden Knotenpunkt beim weltweiten Ausbau der künstlichen Intelligenz (KI), insbesondere was die physische Infrastruktur betrifft, die diesen Ausbau ermöglicht.

Aufgrund seiner führenden Rolle im Bereich Speichersysteme, insbesondere bei Hochbandbreitenspeichern, die für KI-Anwendungen unverzichtbar sind, wird Südkorea zu einem der Hauptnutznießer des Übergangs von der Experimentierphase zur praktischen Umsetzung. In diesem Sinne glauben wir, dass die traditionellen Stärken des Landes – Kapitalintensität, Fertigungstiefe und technische Kapazitäten – neu bewertet werden müssen.

Aktuelle Exportdaten unterstreichen diesen Wandel. Südkoreas Exporte legten kräftig zu und stiegen im März gegenüber dem Vorjahr um rund 48 %, nachdem bereits im Februar ein starker Anstieg von 29 % verzeichnet worden war. Den Aufschwung führten die Halbleiterausfuhren an, wobei sich die Chip-Exporte angesichts der anhaltenden weltweiten Nachfrage nach KI-bezogener Hardware und festerer Speicherpreise mehr als verdoppelten.

Diese Stärke schlug sich in der Marktperformance nieder. Der Korea Composite Stock Price Index (KOSPI) erzielte Mitte April eine Rendite von rund 42 % und übertraf damit sowohl die breiten Schwellenmärkte als auch den S&P 500 Index deutlich.

An der Spitze von Südkoreas Exporten stehen Halbleiter

Halbleiter blieben Südkoreas größte Exportkategorie, da ihr Anteil an den Gesamtexporten von 8,7 % im Januar 2021 auf 32,8 % im März 2026 stieg. Quellen: Bloomberg, Ministerium für Handel, Industrie und Energie.

 

Die Kapitalflüsse zeichnen ein differenzierteres Bild. Im vergangenen Jahr verzeichneten auf Südkorea ausgerichtete Aktien-ETFs starke Zuflüsse, was eine deutliche Umkehr der früheren Untergewichtung widerspiegelt.

Die jüngsten Entwicklungen deuten unserer Ansicht nach eher auf eine Pause als auf einen Rückzug hin. Die Zuflüsse kühlten sich ab, da Anleger Gewinne mitnahmen und angesichts erneuter geopolitischer Spannungen ihre Risikobereitschaft neu bewerteten. Dennoch wiesen auf Südkorea fokussierte ETFs Mitte April immer noch ein Gesamtvermögen von rund 94 Mrd. US-Dollar auf, bei Nettozuflüssen von etwa 21 Mrd. US-Dollar seit Jahresbeginn.

Dies spiegelt unserer Ansicht nach mehr als nur die Positionierung wider: KI ist nicht einfach ein thematischer Überbau, sondern treibt eine echte Umsatzbeschleunigung im gesamten Halbleitersektor und zunehmend auch in angrenzenden Industriezweigen voran. Wir sind der Meinung, dass Südkorea seinen Vorteil in der Anwendung von KI auf die Realwirtschaft hat.

Ein unterschätzter Exportzyklus

Neben dem KI-Thema gibt es ein leiseres, aber zunehmend wichtiges Thema: Verteidigung. Nach einigen Maßstäben zählt Südkorea mittlerweile zu den fünf größten Waffenexporteuren weltweit und liefert alles von Artilleriesystemen bis hin zu hochmodernen Fahrzeugen.

Der Aufstieg des Landes verlief rasant. Die Exporte haben sich in den letzten zehn Jahren mehr als verdoppelt, wodurch das Land einen geschätzten Anteil von 3 % bis 6 % am weltweiten Waffenhandel hält. Insbesondere für europäische Investoren ist dies keine abstrakte Angelegenheit. Deutschland und andere NATO-Mitgliedsländer erhöhen aktiv ihre Verteidigungsausgaben, was eine anhaltende Nachfrage nach zuverlässigen, skalierbaren Lieferanten schafft.

Dies entspricht einem breiteren globalen Trend: Die Sicherheitsausgaben treten, so die Ansicht vieler Analysten, in einen mehrjährigen Expansionszyklus ein, der sich auf industrielle Lieferketten auswirkt. Für Südkorea bieten Rüstungsexporte eine Diversifizierung, die im Halbleiterzyklus oft fehlt.

Sie ermöglichen längerfristige Verträge, geopolitische Relevanz und einen anderen Ertragsrhythmus. Unserer Ansicht nach trägt dieses doppelte Engagement – in KI-Infrastruktur und Verteidigung – dazu bei, die möglicherweise nachhaltigere Natur der jüngsten Rallye Südkoreas im Vergleich zu vergangenen Zyklen zu erklären.

Die eigentliche Frage lautet: Kann die Regierungsführung die Lücke schließen?

Wir sehen es als ermutigend an, dass sich der „Korea-Discount“ – die anhaltende Bewertungslücke gegenüber globalen Vergleichswerten – verringert hat. Wir weisen jedoch auch darauf hin, dass er noch nicht vollständig verschwunden ist. Wie aktuelle Analysen nahelegen, sind nicht KI oder Verteidigung die entscheidenden Faktoren für eine nachhaltige Neubewertung, sondern Unternehmensführung und Kapitalallokation.

Vorgeschlagene Reformen, die auf die Aktionärsrendite abzielen – wie die Einziehung eigener Aktien und verbesserte Dividendenrahmenbedingungen –, sollen langjährige Bedenken hinsichtlich der Kapitaleffizienz ausräumen. Es gibt zudem erste Anzeichen dafür, dass sich das Verhalten möglicherweise zu wandeln beginnt.

Die Politik zur Steigerung der Aktionärsrendite wird sichtbarer, mit verstärkten Rückkaufaktivitäten und einer leichten Verbesserung der Ausschüttungsdisziplin am Rande. Die Beteiligung am „Value-up“-Rahmenprogramm der Regierung hat ebenfalls zugenommen, was den Unternehmen hilft, klarere Renditeziele und Kapitalallokationsstrategien zu formulieren.

Es gibt Indikatoren, die darauf hindeuten, dass sich südkoreanische Unternehmen nun stärker an den globalen Kapitalmärkten orientieren. Einige von ihnen prüfen Börsengänge im Ausland und unternehmen Schritte, um ihre Bewertungen stärker an die ihrer internationalen Wettbewerber anzugleichen.

Diese Maßnahmen deuten auf eine zunehmende Fokussierung auf Liquidität, Zugang für Investoren und Vergleichbarkeit der Bewertungen hin. Gleichzeitig unterstreichen diese Schritte einen bekannten Zielkonflikt: die Abwägung zwischen Investitionen in Wachstum und dem potenziellen Risiko einer Verwässerung der Aktionärsanteile, wenn die Expansion durch die Ausgabe neuer Aktien finanziert wird.

Dennoch stehen die Märkte Absichten ohne Umsetzung skeptisch gegenüber. Unternehmen müssen konsequent handeln: Sie sollten höhere und besser vorhersehbare Ausschüttungen vornehmen, diszipliniert Aktienrückkäufe durchführen und klarere Führungsstrukturen schaffen. Wir werden weiterhin beobachten, ob sich ein Wandel von punktuellen Maßnahmen hin zu standardisierten Rahmenbedingungen für die Kapitalallokation vollzieht.

 


Dina Ting, Head of Global Index Portfolio Management at Franklin Templeton

 


 
AUCH INTERESSANT

Das Billionen-IPO: SpaceX setzt einen neuen Bewertungsmaßstab für die Raumfahrtindustrie

Datensicherungsstrategie
Warum Sicherungs- und Archivierungsrichtlinien für die Geschäftskontinuität entscheidend sind

0

In der heutigen stark digital geprägten Zeit sind Daten für Unternehmen unverzichtbar. Doch es reicht nicht, Daten einfach zu besitzen: Sie müssen verfügbar, korrekt und geschützt sein, damit der Betrieb weiterlaufen kann. Genau hier greifen Sicherungs- und Archivierungsrichtlinien.

Sie sind keine reine IT-Pflicht, sondern die Grundlage dafür, dass ein Unternehmen auch im Krisenfall handlungsfähig bleibt und nach einer Störung schnell wieder arbeiten kann. Fehlt ein solches Konzept, sind Unternehmen vielen Risiken ausgesetzt – von Cyberangriffen über Hardwareausfälle bis hin zu menschlichen Fehlern im Alltag. Wer in eine solide Datensicherungsstrategie investiert, investiert in Widerstandsfähigkeit, Vertrauen und letztlich in den Fortbestand des Unternehmens.

Es geht darum, frühzeitig Regeln und Abläufe festzulegen, die vor, während und unmittelbar nach einer Störung greifen. Moderne Ansätze, die zum Beispiel sicheren Cloud-Speicher nutzen, bieten flexible und skalierbare Optionen, die klassische Methoden sinnvoll ergänzen oder ablösen.

Fehlt dieses Konzept, kann das schwerwiegende Folgen haben. Der IBM Cost of Data Breach Report 2023 nennt durchschnittliche Kosten von 4,45 Millionen US-Dollar pro Datenschutzverletzung. Ebenso alarmierend: Mehr als 40 % der Unternehmen nehmen nach einem Desaster ihren Betrieb nicht wieder auf. Diese Zahlen machen deutlich, dass Sicherungs- und Archivierungsrichtlinien kein Luxus sind, sondern ein fester Bestandteil der Unternehmensstrategie sein sollten – einer, der langfristig Kosten spart und die Existenz sichert.

Was sind Sicherungs- und Archivierungsrichtlinien?

Sicherungs- und Archivierungsrichtlinien sind verbindliche Vorgaben, die festlegen, wie ein Unternehmen digitale Informationen speichert, schützt und wieder abrufen kann – über den gesamten Lebenszyklus der Daten hinweg. Das ist mehr als eine Regelsammlung: Es ist ein strukturierter Plan, der sicherstellt, dass Daten langfristig zuverlässig verwaltet werden.

Abgrenzung zwischen Datensicherung und Datenarchivierung

Auch wenn „Backup“ und „Archiv“ häufig synonym verwendet werden, erfüllen beide Funktionen im Datenmanagement unterschiedliche Zwecke. Diese Unterscheidung ist grundlegend für eine funktionierende Datenstrategie.

Datensicherung (Backup) bedeutet: Kopien aktiver Daten werden zusätzlich an einem anderen Ort gespeichert. Ziel ist die schnelle Wiederherstellung – etwa nach einem Serverausfall, versehentlichem Löschen oder einem Cyberangriff.

Daten werden dabei in der Regel so gesichert, wie sie in Dateien, Datenbanken oder auf Servern vorliegen. Backups sind in der Regel nicht wie ein Archiv durchsuchbar; für die Rücksicherung muss häufig bekannt sein, welche Version benötigt wird und wo sie gespeichert ist. Backups bilden damit die erste Schutzschicht gegen Datenverlust und ermöglichen eine rasche Betriebswiederaufnahme.

Datenarchivierung bedeutet: Daten, die im Tagesgeschäft nicht mehr aktiv genutzt werden, aber weiterhin von Bedeutung sind, werden in einen separaten Speicher für die Langzeitaufbewahrung überführt. Solche Daten können aus rechtlichen, historischen oder analytischen Gründen relevant sein – beispielsweise alte Verträge, Buchungsdaten, Audit-Protokolle oder Ergebnisse vergangener Kampagnen.

Archivdaten werden üblicherweise indexiert gespeichert, sodass sie später über Suchbegriffe, Autor oder Quelle auffindbar sind. Eine durchdachte Archivierung unterstützt die Einhaltung von Compliance-Vorgaben, senkt Speicherkosten, entlastet produktive Systeme und vereinfacht die Datenverwaltung, weil ältere Daten bei Bedarf erreichbar bleiben, ohne das Primärsystem zu belasten.

Typische Inhalte einer Backup- und Archivierungsrichtlinie

Eine wirksame Backup- und Archivierungsrichtlinie beschreibt alle wesentlichen Aspekte rund um das Speichern, Aufbewahren und Löschen von Daten. Sie sollte definieren, welche Daten gespeichert, archiviert oder gelöscht werden müssen – abhängig von gesetzlichen Anforderungen und dem unternehmensspezifischen Bedarf.

Ausgangspunkt ist in der Regel eine Klassifizierung der Daten nach Sensibilität und Wichtigkeit. Für jede Kategorie werden Aufbewahrungsfristen festgelegt: Wann wandern Daten ins Archiv, wie lange verbleiben sie dort, und wann dürfen sie gelöscht werden?

Darüber hinaus regelt die Richtlinie Zugriffsrechte, damit ausschließlich berechtigte Personen auf bestimmte Daten zugreifen können – sowohl im Backup als auch im Archiv. Sie legt fest, welche Technologie eingesetzt wird: Cloud, lokale Systeme oder eine Hybridlösung – und welche Software und Hardware dabei zum Einsatz kommen.

Ein zentrales Element ist die Automatisierung, um Abläufe konsistent zu gestalten und menschliche Fehler zu minimieren. Ebenso müssen Sicherheitsmaßnahmen enthalten sein: Verschlüsselung, Integritätsprüfungen und unveränderliche Backups nach dem WORM-Prinzip (Write Once Read Many), damit Daten weder heimlich verändert noch unbefugt abgerufen werden können. Regelmäßige Tests von Backup und Wiederherstellung runden die Richtlinie ab, damit im Ernstfall alle Abläufe zuverlässig funktionieren.

Warum benötigen Unternehmen Sicherungs- und Archivierungsrichtlinien?

Unternehmen agieren in einem Umfeld, das von digitalen Bedrohungen, technischen Ausfällen und wachsenden gesetzlichen Anforderungen geprägt ist. Backup- und Archivierungsrichtlinien sind kein optionales Zusatzthema, sondern notwendig, um diese Herausforderungen zu beherrschen und langfristig handlungsfähig zu bleiben.

Schutz vor Datenverlust durch Cyberangriffe, Hardwareausfälle und menschliche Fehler

Der wichtigste Grund ist der Schutz vor Datenverlust. Cyberangriffe – insbesondere Ransomware – stellen eine dauerhafte Bedrohung dar. Deutsche Unternehmen waren zuletzt wiederholt Ziel solcher Angriffe. Selbst wenn Angreifer ins Netzwerk eindringen, bieten gesicherte Daten einen entscheidenden Schutz:

Liegen sie in einem unveränderlichen Backup, können sie nachträglich weder verschlüsselt noch verändert werden. Diese Unveränderlichkeit wird mit dem WORM-Prinzip (Write Once Read Many) realisiert. Damit bleiben Daten für einen festgelegten Zeitraum im Originalzustand und bilden eine verlässliche Grundlage für die Wiederherstellung. Die US-Behörde CISA empfiehlt unveränderliche Backups in Kombination mit Verschlüsselung, um den Schutz gegen Ransomware gezielt zu stärken.

Doch nicht nur Angriffe sind ein Risiko. Hardware fällt aus – Festplatten, Server, Speichermedien – und kann wichtige Daten sofort unzugänglich machen. Eine solide Datensicherungsstrategie stellt sicher, dass Kopien an sicheren, redundanten Orten vorliegen.

Hinzu kommen alltägliche Fehler: versehentlich gelöschte oder überschriebene Dateien lassen sich dank Backups schnell auf einen früheren Stand zurücksetzen. Unveränderliche Backups bieten dabei auch Schutz vor Image- und Rechtsproblemen, da sie belegen, dass Daten unverändert geblieben sind. Wie stark Europa dabei strukturell von externen Cloud-Anbietern abhängt und welche Risiken das für die digitale Resilienz von Unternehmen bedeutet, wird zunehmend als strategische Schwachstelle wahrgenommen.

Reduzierung von Ausfallzeiten und Sicherstellung der Betriebsfähigkeit

Ein Systemausfall kann extrem kostspielig sein. In größeren Unternehmen oder Produktionsumgebungen können bereits wenige Minuten erhebliche Schäden verursachen.

Eine Deloitte-Studie (2022) zeigt, dass IT-Ausfälle in mittelgroßen und großen Unternehmen zu durchschnittlichen Schäden von rund 1,2 Millionen Euro pro Woche führen können. Das verdeutlicht: Ausfallzeiten sind nicht nur ärgerlich – sie können ein Unternehmen ernsthaft gefährden.

Backup- und Archivierungsrichtlinien sind genau dafür konzipiert, Ausfallzeiten zu verkürzen. Sie definieren, wie die Wiederherstellung abläuft, und beschleunigen die Rückkehr zum Normalbetrieb nach einem Vorfall. Das ist ein Kernbestandteil des Business-Continuity-Managements: Dienste nach Stromausfällen, Naturereignissen oder Sicherheitsvorfällen rasch wieder bereitzustellen.

Ein Business-Continuity-Plan (BCP) definiert häufig eine Recovery Time Objective (RTO) – also die maximale Zeit, innerhalb derer Prozesse wieder funktionieren müssen. Werden Pläne regelmäßig getestet und realistische RTOs hinterlegt, gelingt die Rückkehr in den Normalbetrieb deutlich schneller.

Das schützt Umsatz und Produktivität und stärkt das Vertrauen von Kunden, Investoren und weiteren Stakeholdern. Unternehmen mit einem erprobten Kontinuitätsprogramm reagieren auf Störungen in der Regel schneller als unvorbereitete Wettbewerber – ein klarer strategischer Vorteil.

Finanzielle Risiken und Reputationsschäden bei unzureichender Datenstrategie

Eine schwache Datenstrategie kann weitreichende Konsequenzen haben. Wenn Geschäfts- oder Kundendaten verloren gehen oder gestohlen werden, steigen die Kosten oft rasch: Kunden wechseln, Betriebsabläufe geraten ins Stocken, und aufwendige Schadensbehebungen werden nötig.

Unternehmen ohne Kontinuitätsplanung sind häufig mit hohen Ausfallkosten konfrontiert, müssen nach einem Imageschaden mehr in die Kundenrückgewinnung investieren, zahlen nach Vorfällen höhere Versicherungsprämien und riskieren Bußgelder, rechtliche Konsequenzen sowie langfristige Markenwerteinbußen.

Neben den direkten Verlusten durch Stillstand und Datenverlust können auch die Kosten für die Wiederherstellung erheblich sein. Eine durchdachte Kontinuitätsplanung wirkt finanziell schützend: Sie federt Risiken ab, priorisiert die Wiederherstellung und sieht Alternativen für den Betrieb vor, damit Einnahmen nicht vollständig wegbrechen. Der Reputationsschaden ist dabei kaum in Zahlen zu fassen: Kunden setzen voraus, dass ihre Daten sicher sind. Wer Störungen souverän bewältigt, demonstriert Stärke, gewinnt Vertrauen und verbessert seine Position im Wettbewerb.

Welche Rolle spielen Sicherungs- und Archivierungsrichtlinien für die Geschäftskontinuität?

Geschäftskontinuität bedeutet: Ein Unternehmen hält wesentliche Funktionen aufrecht und kann nach einer Krise den Normalbetrieb wieder aufnehmen. Backup- und Archivierungsrichtlinien sind dafür kein Beiwerk, sondern ein unverzichtbarer Baustein, der die operative Resilienz maßgeblich beeinflusst.

Bedeutung für Business-Continuity-Pläne

Ein Business-Continuity-Plan (BCP) beschreibt, was im Ernstfall zu tun ist, um den Betrieb wiederherzustellen. Backup- und Archivierungsrichtlinien bilden die Grundlage, da sie konkrete Regeln und technische Vorkehrungen für die Wiederherstellung von Daten und Systemen bereitstellen.

Ohne klare Vorgaben bleibt ein BCP in der Praxis wirkungslos – denn ohne verfügbare Daten kommen viele Prozesse nicht wieder in Gang. Zentrale Bestandteile eines BCP – Risikoanalyse, Wiederherstellungspfade und benötigte Ressourcen – stehen in direktem Zusammenhang mit Backup und Archivierung.

Laut einer Studie des Business Continuity Institute (BCI) verfügen 87 % der Unternehmen über Maßnahmen für Cybervorfälle. Das führt nachweislich zu schnellerer Wiederherstellung und geringeren finanziellen Schäden.

Backup- und Archivierungsrichtlinien sind die operativen Handlungsanweisungen innerhalb dieser Maßnahmen: Welche Daten werden gesichert, in welcher Frequenz, wo liegen sie, und wie wird archiviert? Dadurch ist im Notfall alles Nötige vorhanden, um den Plan in die Tat umzusetzen. Ein wirksamer BCP setzt außerdem auf Backup-Systeme, die vom Hauptnetz getrennt betrieben werden – ein direktes Ergebnis klar definierter Sicherungsregeln.

Sicherung des laufenden Geschäftsbetriebs bei Störungen

Backup- und Archivierungsrichtlinien helfen, den Betrieb auch bei Störungen so weit wie möglich aufrechtzuerhalten. Sie stellen sicher, dass kritische Daten und Anwendungen schnell verfügbar sind. Bei einem Ausfall oder beschädigten Daten können Backups genutzt werden, um Systeme auf einen funktionierenden Zustand vor dem Vorfall zurückzusetzen. Das reduziert Unterbrechungen und bringt wichtige Abläufe schneller zurück.

Ein Business-Continuity-Programm verkürzt Ausfälle, wenn ein Krisenplan und Notfallverfahren vorhanden sind, die eine schnellere Wiederherstellung ermöglichen. Die zugehörigen Backup- und Archivierungsrichtlinien sorgen dafür, dass die technische Infrastruktur dafür bereitsteht – sei es durch Ausweichverfahren, Ersatzsysteme, Remote-Arbeit oder einen zweiten Standort. Eine schnelle Rückkehr zum Tagesgeschäft hält Teams produktiv, bewahrt das Kundenvertrauen und begrenzt Kosten durch Stillstand.

Wiederherstellungsstrategien nach Vorfällen

Ein zentrales Element jeder Richtlinie ist die Wiederherstellungsstrategie. Sie legt fest, wie kritische Abläufe bei Störungen fortgeführt werden – einschließlich der Frage, ob Daten zurückgeholt werden können, wie schnell das geschehen muss (RTO) und wie viel Datenverlust maximal akzeptabel ist (Recovery Point Objective, RPO). Diese Zielwerte bestimmen die Backup-Frequenz und die Tiefe der Archivierung.

Wiederherstellungsstrategien umfassen häufig Ausweichstandorte, Ersatzsysteme, Cloud-Redundanz und manuelle Notfalllösungen für kritische Prozesse. Regelmäßige Tests sind unerlässlich, um zu gewährleisten, dass Abläufe im Ernstfall funktionieren und RTO sowie RPO eingehalten werden.

Unveränderliche Backups spielen dabei eine besondere Rolle, weil sie eine saubere, nicht manipulierte Datenbasis liefern – auch nach einem Ransomware-Angriff. So können Unternehmen schneller ohne Lösegeldzahlung den Betrieb wieder aufnehmen und Ausfallzeiten sowie finanzielle Verluste begrenzen.

Gesetzliche und regulatorische Anforderungen an Datenarchivierung und -sicherung

Die rechtskonforme Archivierung digitaler Daten wird zunehmend komplexer – nicht zuletzt aufgrund wachsender gesetzlicher Vorgaben. Unternehmen, die Daten nicht vorschriftsgemäß aufbewahren, riskieren Bußgelder und Reputationsschäden. Backup- und Archivierungsrichtlinien helfen, diese Anforderungen systematisch zu erfüllen.

EU-DSGVO: Verantwortung und Compliance-Pflichten

Die Datenschutz-Grundverordnung (DSGVO) setzt klare Maßstäbe für den Umgang mit personenbezogenen Daten. Unternehmen müssen Daten nach dem Grundsatz der Datensparsamkeit verarbeiten und dürfen sie nicht länger aufbewahren als für den jeweiligen Zweck erforderlich.

Das bedeutet: Nur notwendige Daten speichern und nach Ablauf der Frist sicher löschen. Archivsysteme benötigen dafür Funktionen wie automatisiertes Retention Management, damit Fristen zuverlässig eingehalten werden. Zugleich müssen Integrität und Vertraulichkeit gewahrt bleiben, damit Daten weder verloren gehen noch unbefugt verändert werden.

Für DSGVO-konformes Arbeiten sollten Richtlinien Verschlüsselung, differenzierte Zugriffskontrollen und Nachweismöglichkeiten gegenüber Aufsichtsbehörden festschreiben. Eine zentrale Speicherlösung mit Retention Management und Verschlüsselung unterstützt die Einhaltung der Vorgaben und hilft, kostspielige Sanktionen zu vermeiden. Auch Betroffenenrechte – wie das Recht auf Auskunft oder Löschung – müssen berücksichtigt werden, einschließlich archivierter Daten.

GoBD und ordnungsmäßige Buchführung

In Deutschland sind die Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff (GoBD) von zentraler Bedeutung. Sie verlangen, dass Geschäftsvorfälle vollständig dokumentiert und revisionssicher aufbewahrt werden. Steuerrelevante Daten müssen über die gesetzlich vorgeschriebene Aufbewahrungsfrist unveränderbar und nachvollziehbar gespeichert werden.

Für die GoBD-Konformität sind Archivlösungen erforderlich, die Aufbewahrungsfristen abbilden und Daten unveränderbar speichern können. Das WORM-Prinzip (Write Once Read Many) ist hierfür besonders geeignet, da es nachträgliche Änderungen verhindert und die Revisionssicherheit erhöht.

Richtlinien sollten präzise beschreiben, wie die GoBD-Anforderungen technisch umgesetzt werden, welche Systeme betroffen sind und welche Prozesse für die revisionssichere Speicherung gelten – damit Integrität und Echtheit der Daten jederzeit nachweisbar sind.

IT-Sicherheitsgesetz und NIS2 für kritische Infrastrukturen

Das IT-Sicherheitsgesetz und die NIS2-Richtlinie verpflichten Unternehmen – insbesondere Betreiber kritischer Infrastrukturen (KRITIS) – zu robusten Sicherheitsmaßnahmen. Dazu gehören Angriffserkennung und strenge Zugriffskontrollen. Für diese Unternehmen sind Backup- und Archivierungsrichtlinien von besonderer Wichtigkeit, da ein Ausfall in der Regel weitreichendere Folgen hat als in anderen Branchen.

Eine zeitgemäße Archivlösung sollte Schutz für Integrität und Vertraulichkeit bieten – also Verschlüsselung und granulare Zugriffskontrollen. Richtlinien müssen erläutern, wie die Compliance-Konformität nachgewiesen wird, einschließlich Dokumentation und regelmäßiger Wirksamkeitsprüfungen der Maßnahmen. Unveränderliche Backups leisten auch hier einen wesentlichen Beitrag zur Datensicherheit und zur Erfüllung regulatorischer Anforderungen.

Vorteile einer strukturierten Sicherungs- und Archivierungsstrategie

Eine durchdachte Strategie für Backup und Archivierung bietet nicht nur Schutz, sondern schafft auch konkrete Vorteile bei Kosten, Effizienz und Compliance.

Vermeidung von Datenwildwuchs und Senkung der Speicherkosten

Datenvolumina wachsen heute rasant. Viele Unternehmen akkumulieren Daten, die sie kaum noch benötigen – weil sie veraltet, abgelaufen oder ohne praktischen Nutzen sind. Dennoch belegen sie wertvollen Speicherplatz und verursachen laufenden Verwaltungsaufwand.

Eine strukturierte Archivierung beginnt mit der Frage: Welche Daten werden im Alltag nicht mehr benötigt, könnten aber später aus rechtlichen, historischen oder analytischen Gründen relevant sein? Wenn diese Daten in ein separates Langzeitsystem überführt werden, steht mehr Kapazität für aktuelle Arbeit zur Verfügung, und produktive Datenbanken laufen schneller.

Archivdaten liegen häufig auf kostengünstigeren Speichertiers mit geringerem Wartungsaufwand. Das spart Geld, weil teurer Primärspeicher entlastet wird und IT-Systeme im Tagesgeschäft effizienter arbeiten. Zudem werden Backups schneller, weil inaktive Daten nicht unnötigerweise mehrfach kopiert werden. Die klare Trennung von aktiven und inaktiven Daten vereinfacht die Verwaltung erheblich und verhindert unkontrollierten Datenwildwuchs.

Erleichterung von Audits und Nachweispflichten

Bei Prüfungen muss nachgewiesen werden können, dass Daten unverändert sind. Unveränderliche Backups sind hierfür ein belastbarer Beleg und erleichtern Audits erheblich. Viele Rechtsvorschriften verlangen, dass Finanzunterlagen über mehrere Jahre aufbewahrt werden. Archivierte Finanzdaten können zudem helfen, frühere Unregelmäßigkeiten aufzudecken – etwa Hinweise auf Betrug oder Buchungsfehler.

Eine funktionierende Archivstrategie stellt sicher, dass Daten sauber indexiert sind und sich schnell abrufen lassen. Das ist besonders wichtig, wenn Behörden oder interne Prüfer kurzfristig bestimmte Informationen anfordern. Regelmäßige Tests gewährleisten außerdem, dass Archivdaten weiterhin verfügbar und schnell auffindbar sind. Ohne eine solche Struktur kann ein Audit zur ernsthaften Herausforderung werden – mit möglichen Bußgeldern und Reputationsschäden als Folge.

Herausforderungen und Risiken bei fehlenden oder unzureichenden Richtlinien

Wenn Backup- und Archivierungsrichtlinien fehlen oder unzureichend sind, entstehen erhebliche Risiken – im schlimmsten Fall bis hin zur Existenzbedrohung des Unternehmens.

Erhöhtes Risiko der Nichterfüllung gesetzlicher Vorschriften

Die regulatorischen Anforderungen wachsen – durch DSGVO, GoBD und NIS2. Wer Vorgaben nicht erfüllt, riskiert empfindliche Bußgelder, Sanktionen und rechtliche Auseinandersetzungen, die die Unternehmensfinanzen erheblich belasten können. Darüber hinaus verlieren Kunden und Geschäftspartner das Vertrauen – mit langfristigen Folgen für die Marktstellung.

Wer keine klaren Aufbewahrungsfristen definiert oder keine revisionssichere Archivierung betreibt, steht bei Steuerprüfungen schnell vor ernsthaften Problemen. In stark regulierten Branchen – wie Medizin, Finanzwesen oder dem öffentlichen Sektor – sind unveränderliche Backups und lückenlose Dokumentation unabdingbar, um branchenspezifische Standards einzuhalten.

Das gilt sowohl für nationale Vorgaben als auch für internationale Regelwerke wie HIPAA oder FINRA (US-amerikanische Vorschriften für das Gesundheits- bzw. Finanzwesen), mit denen international tätige Unternehmen konfrontiert sein können. Ohne diese Grundlagen wird Compliance zur Dauerbaustelle.

Unklare Verantwortlichkeiten und mangelnde Prozesse

Ohne Richtlinien sind Zuständigkeiten häufig nicht geregelt: Wer erstellt Backups? Wer prüft Archive? Wer handelt im Notfall? Fehlen klar definierte Rollen und Abläufe, wird die Reaktion im Krisenfall langsamer und unkoordinierter. Die Folgen sind Missverständnisse, Verzögerungen und inkonsistentes Vorgehen je nach Abteilung.

Ohne klare Anweisungen können Ausfälle länger andauern und mehr Ressourcen binden. Probleme eskalieren, wenn niemand weiß, wer Entscheidungen treffen darf und wo relevante Dokumentation liegt. Das schwächt auch den Zusammenhalt im Team: Mitarbeitende fühlen sich in Krisen unvorbereitet und überfordert – was die Handlungsfähigkeit des gesamten Unternehmens beeinträchtigt.

Verlängerte Wiederherstellungszeiten nach Vorfällen

Besonders folgenreich sind lange Wiederherstellungszeiten. Ohne eine klare Backup-Strategie ist im Ernstfall oft unklar, wo Backups liegen, ob sie aktuell sind und wie die Rücksicherung konkret funktioniert. Das kann zu erheblichem Datenverlust führen und den Betrieb nachhaltig belasten.

Wie schnell ein Unternehmen nach einem Vorfall wieder stabil arbeitet, hängt maßgeblich von der Qualität und den regelmäßigen Tests seiner Richtlinien ab. Ohne diese lassen sich RTO und RPO kaum verlässlich einhalten. Jede zusätzliche Minute Stillstand bedeutet Umsatzverlust und schwindende Kundenakzeptanz. Im schlimmsten Fall kann eine zu lange Ausfallzeit das Ende des Unternehmens bedeuten.

Best Practices für wirksame Sicherungs- und Archivierungsrichtlinien

Damit Geschäftskontinuität langfristig gewährleistet ist, müssen Richtlinien praxistauglich sein und konsequent umgesetzt werden. Bewährte Methoden und regelmäßige Anpassungen sind dafür unerlässlich.

Formulierung klarer Aufbewahrungsfristen und Zugriffsrechte

Eine verbindliche Datenaufbewahrungsrichtlinie muss klar definieren, welche Daten aus gesetzlichen, behördlichen oder geschäftlichen Gründen aufbewahrt, archiviert oder gelöscht werden müssen. Legen Sie fest, wann Daten ins Archiv überführt werden, wie lange sie dort verbleiben und wann sie endgültig gelöscht werden. Das spart Speicherkosten und stellt sicher, dass relevante Daten für Prüfungen verfügbar sind.

Ebenso wichtig sind differenzierte Zugriffsrechte. Archivdaten erfordern denselben Schutz wie aktive Daten. Eine Archivlösung sollte robuste Sicherheitsfunktionen bieten und Zugriffe über rollenbasierte Berechtigungen strikt begrenzen. Das minimiert das Risiko von Datenlecks und Manipulationen und schützt sowohl die Vertraulichkeit als auch die Datenintegrität.

Automatisierte Archivierungs- und Backup-Prozesse

Manuelle Archivierung ist zeitaufwendig und fehleranfällig. Automatisierung erkennt Daten anhand definierter Regeln, überführt sie und protokolliert die Vorgänge – beispielsweise nach Datentyp, Alter oder Verantwortlichkeit. Das spart Zeit und reduziert Prozessfehler erheblich.

Auch Backups sollten weitgehend automatisiert ablaufen. So werden sie regelmäßig und konsistent erstellt, ohne dass dies von Einzelpersonen manuell angestoßen werden muss. Monitoring und automatisierte Berichte sind dabei essenziell, damit Fehler im Backup-Prozess umgehend erkannt und behoben werden können.

Regelmäßige Tests von Backup und Wiederherstellung

Ein Backup nützt nur dann etwas, wenn die Rücksicherung im Ernstfall tatsächlich funktioniert. Regelmäßige Tests sind daher unverzichtbar. Sie belegen, dass Archivdaten verfügbar sind und sich schnell lokalisieren lassen. Tests decken Schwachstellen auf, klären Zuständigkeiten und verbessern die Reaktionsfähigkeit im Ernstfall. Unternehmen mit getesteten Notfallplänen kehren bei realen Störungen in der Regel deutlich schneller zum Normalbetrieb zurück.

Als bewährter Standard gilt die 3-2-1-Regel: mindestens drei Datenkopien, auf zwei verschiedenen Medientypen, eine Kopie außerhalb des Standorts. Angesichts moderner Cyberangriffe wurde dieser Standard häufig zur 3-2-1-1-0-Regel erweitert: zusätzlich eine unveränderliche Kopie – und regelmäßige Tests, um sicherzustellen, dass möglichst keine Fehler unentdeckt bleiben.

Schulung und Sensibilisierung der Mitarbeitenden

Technologie allein reicht nicht aus, denn Menschen sind nach wie vor eine der häufigsten Fehlerquellen. Gezielte Schulungen informieren Mitarbeitende über Risiken wie Phishing, Malware und versehentlichen Datenverlust – und über den korrekten Umgang mit sensiblen Daten.

Wenn Rollen und Verantwortlichkeiten in der Krise klar kommuniziert sind, sinkt der Stresslevel, und jede Person kann ihren Beitrag leisten. Übungen und realistische Simulationen zeigen Schwachstellen auf und verbessern Abläufe. Das stärkt das Vertrauen im Team und macht die Zusammenarbeit bei Störungen koordinierter und effektiver.

Integration in das umfassende Risikomanagement

Backup- und Archivierungsrichtlinien sollten nicht isoliert vom übrigen Risikomanagement betrieben werden. Ein integrierter Gesamtansatz hilft, auf physische und digitale Bedrohungen besser zu reagieren, Schäden zu begrenzen, die Datensicherheit zu erhöhen und regulatorische Vorgaben zu erfüllen. Die Business-Impact-Analyse (BIA) ist dabei ein zentraler Schritt: Sie hilft, Risiken und Schwachstellen zu identifizieren und mögliche Auswirkungen zu quantifizieren.

Wenn Backup und Archivierung in das Risikomanagement eingebettet sind, werden Ressourcen nach tatsächlichen Schwachstellen priorisiert – nicht nach Bauchgefühl. Das schützt kritische Abläufe und beschleunigt die Erholung nach Vorfällen. Eine klare Archivstrategie ist damit ein fester Bestandteil eines stabilen Daten- und IT-Ökosystems.

Lösungsansätze und Technologien zur Unterstützung der Geschäftskontinuität

Die geeignete Technologie ist entscheidend, um Richtlinien auch praktisch umzusetzen. Je nach Unternehmensanforderungen kommen verschiedene Lösungsmodelle in Betracht.

Vergleich von Cloud-, On-Premises- und Hybridlösungen

Für Backups und Archive stehen in der Regel drei Betriebsmodelle zur Verfügung: Cloud, On-Premises oder eine hybride Kombination. Jedes Modell hat eigene Stärken und Einschränkungen:

Cloudbasierte Archivierungslösungen sind häufig kostengünstiger und lassen sich flexibler skalieren als lokale Systeme. Sie ermöglichen ortsunabhängigen Zugriff und bieten oft ein höheres Maß an Automatisierung. Cloud-Anbieter reduzieren Risiken durch redundante Datenspeicherung an mehreren Standorten. Public-Cloud-Infrastrukturen setzen zudem auf aktuelle Sicherheitstechnologien, um Angriffen zu begegnen. Das macht sie besonders attraktiv für Unternehmen, die Flexibilität priorisieren und geringe Anfangsinvestitionen bevorzugen.

On-Premises-Lösungen erfordern in der Regel einen höheren Wartungsaufwand und größere Investitionen in Hardware und Infrastruktur. Im Gegenzug bleibt die vollständige Datenkontrolle im eigenen Rechenzentrum erhalten – ein Argument, das bei besonders sensiblen Daten oder strengen internen Vorgaben relevant sein kann.

Hybride Datenarchivierungslösungen kombinieren Cloud- und lokale Systeme und bieten damit ein ausgewogenes Verhältnis aus Kosten, Kontrolle, Sicherheit und Leistung. Diese Modelle eignen sich besonders für Unternehmen, die Compliance-Vorgaben über mehrere Regionen hinweg erfüllen müssen oder Altsysteme schrittweise modernisieren. Kritische Daten können lokal verbleiben, während weniger kritische Daten in die Cloud ausgelagert werden.

Datenverschlüsselung und unveränderliche Backups als Schutzmaßnahmen

Verschlüsselung ist eine grundlegende Sicherheitsmaßnahme: Sie stellt sicher, dass Daten selbst bei einem Diebstahl nicht lesbar sind. Daten sollten sowohl bei der Übertragung als auch im Ruhezustand verschlüsselt werden – idealerweise mit unternehmensseitig verwalteten Schlüsseln. Das erhöht die Vertraulichkeit und schützt vor unbefugtem Zugriff.

Unveränderliche Backups nach dem WORM-Prinzip gehören zu den wirksamsten Methoden für Datensicherheit und Cyberabwehr. Nach dem Speichern können Daten weder geändert noch gelöscht werden. Das schützt vor Manipulation, versehentlichen Änderungen und Ransomware.

Während einer festgelegten Sperrfrist bleiben Daten im Originalzustand und bilden eine verlässliche Quelle für die Wiederherstellung. Das ist nicht nur aus Sicherheitsgründen entscheidend, sondern auch für regulatorische und prüfungsrelevante Anforderungen, bei denen die Korrektheit und Nachweisbarkeit von Daten gefordert wird.

Integration mit bestehenden IT-Systemen und Geschäftsprozessen

Eine Archivlösung entfaltet ihren vollen Nutzen nur, wenn sie nahtlos mit vorhandenen Systemen zusammenarbeitet. Das betrifft die Kompatibilität mit Speicherinfrastrukturen, Datenbanken, Unternehmensanwendungen (z. B. CRM und ERP) sowie Cloud-Diensten. Eine gute Integration reduziert den Verwaltungsaufwand, minimiert manuelle Eingriffe und verringert Fehlerquellen.

Bei der Auswahl eines Archiv-Tools sind Automatisierungs- und Planungsfunktionen wichtig, damit Daten nicht manuell verschoben werden müssen. Leistungsfähige Indexierung und Suche erleichtern das schnelle Auffinden von Informationen. Ebenso relevant ist die Einbindung in das Risikomanagement sowie die Einhaltung branchenspezifischer Vorschriften. Eine gut integrierte Archivstrategie modernisiert das Datenmanagement und unterstützt die Geschäftskontinuität spürbar.

FAQ: Häufig gestellte Fragen zu Sicherungs- und Archivierungsrichtlinien

Bei Datensicherung und Archivierung tauchen in der Praxis immer wieder ähnliche Fragen auf. Hier sind Antworten auf die häufigsten:

Welche Daten müssen wie lange aufbewahrt werden?

Die Aufbewahrungsdauer hängt von Datentyp, Branche und den geltenden Gesetzen ab. Finanz- und Transaktionsdaten müssen in Deutschland gemäß GoBD in der Regel 6 bis 10 Jahre revisionssicher aufbewahrt werden. Personenbezogene Daten unterliegen der DSGVO: Sie dürfen nur so lange gespeichert werden, wie es für den jeweiligen Verarbeitungszweck erforderlich ist, und müssen anschließend sicher gelöscht werden. Betreiber kritischer Infrastrukturen (KRITIS) unterliegen zusätzlich den Anforderungen aus IT-Sicherheitsgesetz und NIS2.

Unternehmen sollten ihre Daten systematisch klassifizieren: Welche Daten sind kritisch, sensibel oder geschäftlich bedeutsam? Darauf aufbauend lassen sich interne Richtlinien entwickeln, die sowohl gesetzliche Fristen als auch betriebliche Anforderungen – etwa für Analysen oder Projekthistorien – berücksichtigen. Eine verbindliche Datenaufbewahrungsrichtlinie mit klar definierten Fristen ist dafür die Grundlage.

Wie oft sollten Backups erstellt und getestet werden?

Die optimale Backup-Frequenz richtet sich nach der Kritikalität der Daten und dem maximal tolerierbaren Datenverlust (RPO). Bei besonders wichtigen Daten können kontinuierliche oder häufige inkrementelle Backups (z. B. stündlich) erforderlich sein. Bei weniger kritischen Daten können tägliche oder wöchentliche Intervalle ausreichen. Die 3-2-1-1-0-Regel empfiehlt: drei Kopien, auf zwei Medientypen, eine Kopie extern, eine unveränderliche Kopie – und regelmäßige Tests ohne unentdeckte Fehler.

Tests sind mindestens genauso wichtig wie das Erstellen von Backups. Dabei sollte geprüft werden, ob Daten vollständig und integer sind und ob Systeme innerhalb der festgelegten RTO wiederhergestellt werden können. Solche Tests sollten mindestens jährlich stattfinden – besser quartalsweise oder nach wesentlichen IT-Änderungen.

Wer ist für die Umsetzung im Unternehmen verantwortlich?

Die Verantwortung liegt selten bei einer einzelnen Person. Geschäftsführung sowie CIO/CISO geben die strategische Richtung vor, stellen Budget bereit und setzen Richtlinien durch. Die IT-Abteilung übernimmt die technische Umsetzung, betreibt die Systeme und überwacht Backups und Archive.

Fachabteilungen wirken bei der Klassifizierung ihrer Daten mit und definieren Aufbewahrungsfristen, die zu ihren operativen Abläufen und rechtlichen Pflichten passen. Der Datenschutzbeauftragte stellt die Einhaltung von DSGVO und weiteren Datenschutzvorschriften sicher. Letztlich müssen auch alle Mitarbeitenden die Richtlinien kennen und einhalten. Klar definierte Rollen – wie sie in einem gut ausgearbeiteten BCP dokumentiert sind – sind für eine reibungslose Umsetzung unerlässlich.

Geschäftskontinuität durch klare Backup- und Archivierungsrichtlinien sichern

In einer Zeit mit wachsenden digitalen Risiken und exponentiell zunehmenden Datenmengen sind Backup- und Archivierungsrichtlinien keine bürokratische Formalität. Sie sind das strukturelle Fundament, das Unternehmen auch bei ernsthaften Störungen stabil hält – und das zeigt, dass ein Unternehmen den Wert seiner Daten erkennt, aktiv schützt und professionell verwaltet.

Ob ein Unternehmen nach einem schwerwiegenden Vorfall weiterarbeiten und sich erholen kann, hängt maßgeblich davon ab, wie gut diese Richtlinien ausgearbeitet und gelebt werden. Das ist kein einmaliges Projekt, sondern eine Daueraufgabe: prüfen, anpassen, investieren.

Technologie und Bedrohungslagen ändern sich in hohem Tempo. Daher sollten Backup- und Archivierungspläne regelmäßig aktualisiert werden – neue Möglichkeiten wie unveränderliche Cloud-Speicher oder KI-basierte Angriffserkennung einbezogen und Mitarbeitende kontinuierlich geschult werden.

So bleibt der Betrieb stabil, das Vertrauen von Kunden und Partnern wächst, und das Unternehmen bleibt wettbewerbsfähig. Geschäftskontinuität ist keine Einzelmaßnahme, sondern dauerhafte Bereitschaft – und klare, konsequent gelebte Backup- und Archivierungsrichtlinien machen sie möglich.

Israel
Ex-Mossad-Chef: „Ich schäme mich, Jude zu sein“

0

Jerusalem – Der ehemalige Chef des israelischen Geheimdienstes Mossad, Tamir Pardo, hat die israelischen Aktionen im besetzten Westjordanland scharf kritisiert.

Er verglich die jüngsten Übergriffe der Besatzer mit dem Holocaust und erklärte, er fühle sich „beschämt, Jude zu sein“. Pardo, der den Mossad von 2011 bis 2016 leitete, äußerte sich in einem Interview mit Channel 13 während einer Besichtigung palästinensischer Dörfer, die in den letzten Monaten Ziel von Angriffen wurden. Er wurde dabei von ehemaligen hochrangigen Militärvertretern wie Matan Vilnai und Amram Mitzna begleitet.

„Meine Mutter war eine Holocaust-Überlebende, und das, was ich gesehen habe, erinnerte mich an die Ereignisse, die den Juden im letzten Jahrhundert widerfahren sind“, sagte Pardo. „Was ich heute gesehen habe, hat mich beschämt, Jude zu sein.“ Er verurteilte die eskalierende Gewalt durch israelische Besatzer gegen Palästinenser und bezeichnete diese als eine „existenzielle Bedrohung“ für den Staat Israel.

Warnung vor einem „nächsten 7. Oktober“

Pardo warnte eindringlich davor, dass die Verbrechen der Siedler, denen von den Behörden oft mit Gleichgültigkeit oder gar Unterstützung begegnet werde, zum „nächsten 7. Oktober“ führen könnten.

„Es wird in einem anderen Format sein, viel schmerzhafter, weil die Region viel komplizierter ist. Der Staat hat sich entschieden, die Saat für den nächsten 7. Oktober zu säen“, warnte er. Obwohl er davon überzeugt ist, dass die israelischen Strafverfolgungsbehörden über die Situation informiert sind, hätten sie sich laut Pardo dazu entschlossen, sie „zu ignorieren“.

Bemühungen, die extremistischen Besatzer einzuschränken – von denen er sagte, einige seien bewaffnet und genössen politische Rückendeckung –, könnten interne Konflikte auslösen.

„Gegen sie vorzugehen, könnte einen Bürgerkrieg entfachen“, sagte er und verwies dabei insbesondere auf den Einfluss rechtsextremer Figuren innerhalb der Regierung wie den Minister für nationale Sicherheit, Itamar Ben-Gvir, und Finanzminister Bezalel Smotrich. „Wenn wir wollen, können wir das korrigieren, aber der Preis wird sehr hoch sein“, fügte Pardo hinzu. „Es liegt sehr in unserem Interesse, diesen Punkt nicht zu erreichen.“

Die „Korruption der israelischen Gesellschaft“

Pardo erinnerte zudem an die Warnungen des israelischen Philosophen Yeshayahu Leibowitz aus dem Jahr 1968. Leibowitz hatte in seinem Artikel „The Territories“ die Besetzung palästinensischer Gebiete und die Verhängung der Militärherrschaft über Millionen von Palästinensern kritisiert.

Er warnte damals, dass die Kontrolle über die Palästinenser letztlich zur „Korruption“ der israelischen Gesellschaft führen würde. „Die Herrschaft über die besetzten Gebiete hätte soziale Auswirkungen“, so Leibowitz damals. Er fügte hinzu: „Die für jedes Kolonialregime charakteristische Korruption würde auch im Staat Israel vorherrschen“, und forderte den Rückzug aus den besetzten Gebieten. Während Pardo früher glaubte, Leibowitz habe sich geirrt, sagt er heute, dass in dieser Warnung „viel Wahrheit steckte“.

Eskalation und Statistiken

Die Gewalt und Expansion der israelischen Siedler haben sich seit Oktober 2023 massiv verschärft. Dies umfasst die systematische Vertreibung von Palästinensern aus ihren Gemeinschaften und den zunehmenden Einsatz scharfer Munition gegen unbewaffnete Einwohner. Die „Wall and Settlement Resistance Commission“ gab an, dass israelische Siedler in diesem Jahr bereits mindestens 16 Palästinenser getötet haben.

Ein im März veröffentlichter Bericht der Vereinten Nationen dokumentierte, dass zwischen November 2024 und Oktober 2025 mehr als 36.000 Palästinenser im Westjordanland infolge einer Zunahme von Militär- und Siedlerangriffen vertrieben wurden. Im selben Zeitraum wurden 1.732 Vorfälle von Siedlergewalt dokumentiert, die zu Opfern oder Sachschäden führten – ein Anstieg von 25 Prozent gegenüber dem Vorjahr.

Nach offiziellen palästinensischen Daten wurden seit Oktober 2023 im Westjordanland mindestens 1.154 Palästinenser durch die israelische Armee und Besatzer getötet, etwa 11.750 weitere wurden verletzt, und es kam zu fast 22.000 Verhaftungen. Zu den Verstößen zählen die Zerstörung von Eigentum, das Niederbrennen von Häusern, Zwangsvertreibungen und die Ausweitung illegaler Siedlungsaktivitäten.

Die UN betrachtet israelische Siedlungen in palästinensischen Gebieten als illegal. Derzeit leben etwa 750.000 israelische Besatzer in 141 illegalen Siedlungen und 224 Außenposten im Westjordanland, darunter etwa 250.000 in Ostjerusalem.

 


AUCH INTERESSANT

Israel-Boykott: Auch Irland strahlt Eurovision nicht aus

Demografie
Deutschland: Größtes Geburtendefizit der Nachkriegszeit

Berlin – Im Jahr 2025 wurden in Deutschland nach vorläufigen Ergebnissen rund 654 300 Kinder geboren. Wie das Statistische Bundesamt (Destatis) mitteilt, waren das 3,4 % Neugeborene weniger als im Vorjahr (2024: 677 117 Geburten).

Damit sank die Geburtenzahl im vierten Jahr in Folge und erreichte den niedrigsten Stand seit 1946. Die Zahl der Sterbefälle (rund 1,01 Millionen) überstieg die Zahl der Geburten im Jahr 2025 um 352 000. Das war das größte Geburtendefizit der Nachkriegszeit.

Die niedrigen Geburtenzahlen der vergangenen Jahre ergeben sich aus zwei Entwicklungen: Das Eintreten der zahlenmäßig kleinen 1990er-Geburtsjahrgänge in das wichtige fertile Alter von Anfang 30 und die seit 2022 sinkende zusammengefasste Geburtenziffer.

Die Struktur der Geburten nach der Geburtenfolge blieb im Jahr 2025 stabil. Von allen geborenen Babys waren 46,6 % die ersten Kinder, 34,8 % die zweiten Kinder und 18,6 % die dritten oder weiteren Kinder im Leben der Mutter.

Hamburg einziges Bundesland mit Geburtenanstieg im Jahr 2025

Wie in den Vorjahren sank die Geburtenzahl 2025 gegenüber 2024 in den östlichen Bundesländern mit -4,5 % stärker als in den westlichen Bundesländern mit -3,2 %. Unter den Bundesländern verzeichnete nach den vorläufigen Ergebnissen ausschließlich Hamburg mit +0,5 % einen leichten Geburtenanstieg. Den stärksten Geburtenrückgang gab es in Mecklenburg-Vorpommern mit -8,4 %.

Geburtenrückgänge auch in anderen Staaten der Europäischen Union

Einen Rückgang der Geburtenzahlen im Jahr 2025 melden laut vorläufigen Ergebnissen auch andere Staaten der Europäischen Union, darunter Frankreich, Österreich, Italien und Schweden. In Spanien, den Niederlanden und Finnland zeichnet sich dagegen eine Stabilisierung der Geburtenzahlen ab.

Annahmen zur künftigen Geburtenentwicklung in Deutschland

Nach den Ergebnissen der 16. koordinierten Bevölkerungsvorausberechnung wäre ein künftiger Anstieg der Geburtenzahl in Deutschland nur bei einer deutlich steigenden zusammengefassten Geburtenziffer und mindestens moderater Nettozuwanderung möglich. Allerdings wird die Geburtenzahl auch unter diesen günstigen Annahmen voraussichtlich unter dem vergleichsweise hohen Niveau des Jahres 2021 von rund 795 000 geborenen Kindern bleiben.

Berliner Demografiegespräch am 29. April 2026 zum aktuellen Geburtenrückgang

Über die Besonderheiten des aktuellen Geburtenrückgangs in Deutschland und die Geburtenentwicklung im europäischen Kontext informieren Expertinnen und Experten des Statistischen Bundesamtes und des Bundesinstituts für Bevölkerungsforschung am Mittwoch, 29. April 2026, um 12:30 Uhr beim Berliner Demografiegespräch „Anhaltender Geburtenrückgang? Deutschland im europäischen Vergleich“.

Alle Informationen zur Veranstaltung sowie zur Anmeldung für die Teilnahme vor Ort oder per Livestream stellt die Hauptstadtkommunikation des Statistischen Bundesamtes unter www.destatis.de/hauptstadt bereit.

Methodische Hinweise:

Alle Ergebnisse für 2025 sind vorläufig und stammen aus der Aufbereitung der Statistiken der Geburten auf Basis von Meldungen aus den Standesämtern. Die endgültigen ausführlichen Ergebnisse und relative Indikatoren wie die zusammengefasste Geburtenziffer werden turnusgemäß im Juli 2026 vorliegen und weitere Analysen – beispielsweise nach Alter – ermöglichen.

 


AUCH INTERESSANT

Türkei: Geburtenrate erneut gefallen

Geschichte
Einsteins Briefe: Wie die Türkei jüdische Wissenschaftler vor den Nazis rettete

Als Adolf Hitler am 30. Januar 1933 zum Reichskanzler ernannt wurde, begann für Tausende deutsche Wissenschaftler jüdischen Glaubens eine Ära der Verfolgung.

Das im April 1933 erlassene „Gesetz zur Wiederherstellung des Berufsbeamtentums“ entfernte alle Beamten „nicht-arischer Abstammung“ aus dem Staatsdienst — mit einem Schlag verloren die klügsten Köpfe Deutschlands ihre Stellen, ihre Würde und ihre Heimat.

Einer der ersten, der handelte, war der jüdische Pathologe Philipp Schwartz. Er floh aus Frankfurt nach Zürich und gründete dort die „Notgemeinschaft Deutscher Wissenschaftler im Ausland“ — eine Organisation, die es sich zur Aufgabe machte, verfolgten Akademikern neue Stellen zu vermitteln.

Was zunächst aussichtslos schien, sollte sich als rettende Idee erweisen: Die junge türkische Republik, gerade erst im Aufbau ihrer Universitäten, suchte dringend nach erstklassigen Professoren.

Phillip Schwartz

Einsteins Brief an die Türkei

In dieser Not wandte sich auch Albert Einstein persönlich an die türkische Führung. Am 17. September 1933 schrieb er als Ehrenpräsident der Weltvereinigung „OSE“ einen Brief an den Präsidenten des Ministerrats der türkischen Republik — und bat um Aufnahme von 40 Professoren und Ärzten aus Deutschland, die in ihrer Heimat mit Berufsverbot belegt worden waren.

„Diese Wissenschaftler sind bereit, ein Jahr lang ohne jede Vergütung in einigen Ihrer Einrichtungen gemäß den Anweisungen Ihrer Regierung zu arbeiten“, schrieb Einstein.

„Diesen Antrag unterstützend nehme ich mir die Freiheit, meine Hoffnung auszudrücken, dass bei einer Bewilligung dieser Bitte Ihrerseits eine Tat der großen Humanität vollzogen wird, dadurch aber auch einen Vorteil für Ihr eigenes Land mit sich bringt.“

Der Brief war formal an den Präsidenten des Ministerrats adressiert — İsmet İnönü. Dieser lehnte den Antrag zunächst ab und schrieb handschriftlich auf das Dokument: „Ihre Gehälter werden für uns unerschwinglich sein.“

Doch als Staatspräsident Atatürk von dem Brief erfuhr, berief er persönlich eine Besprechung ein und überstimmte İnönü. Die Einladung an die deutschen Wissenschaftler wurde ausgesprochen — und die Modernisierung der türkischen Universitäten nahm ihren Lauf.

Istanbul wird zur „besten deutschen Universität“

Philipp Schwartz reiste im Sommer 1933 nach Ankara, um persönlich mit dem türkischen Bildungsminister Reşit Galip zu verhandeln. Er hatte bescheidene Erwartungen — und verließ das Treffen mit dreißig Stellenangeboten. Bis Ende 1933 hatten bereits 42 deutsche Akademiker ihre Arbeit an der Istanbuler Universität aufgenommen — die meisten mit Fünfjahresverträgen und Gehältern, die ihren deutschen Stellen entsprachen.

Am 1. August 1933 öffnete die İstanbul Üniversitesi ihre Tore mit 27 türkischen und 38 ausländischen Professoren. Türkische Zeitungen begrüßten die neuen Professoren mit Schlagzeilen auf der Titelseite. Unter den Geretteten befanden sich Wissenschaftler von Weltrang — darunter der Chirurg Rudolf Nissen, der Ökonom Fritz Neumark, der Rechtswissenschaftler Ernst Hirsch, der Hethitologe Hans Güterbock sowie die Physiker James Franck und Max Born als Berater. Auch der Komponist Paul Hindemith und der Architekt Clemens Holzmeister fanden in der Türkei Zuflucht. 

Manche Flüchtlingsprofessoren sagten gerne, Istanbul sei „die beste deutsche Universität“ geworden — eine Anspielung auf den enormen Zustrom an Talenten und die Tatsache, dass viele Universitäten in Deutschland nicht mehr das waren, was sie einmal gewesen waren. 

Historische Aufnahme: Mustafa Kemal Atatürk mit türkischen und deutschen Exil-Wissenschaftlern nach der großen türkischen Universitätsreform 1933.

Ein vergessener Retter: Philipp Schwartz

Hinter diesem historischen Kapitel steht vor allem ein Mann, dessen Name kaum bekannt ist: Philipp Schwartz. Der jüdische Pathologe, der 1933 aus Frankfurt fliehen musste, wurde zum Initiator der deutschen Wissenschaftsemigration in die Türkei und gilt heute als „vergessener Retter“. 

In seinen Memoiren beschrieb Schwartz die Ankunft in Istanbul mit Worten, die den Geist dieser außergewöhnlichen Episode einfangen: „Ich und meine Freunde wussten, dass wir gleichzeitig eine wichtige Mission übernommen hatten: den wahren deutschen Geist und die deutsche Kultur zu vertreten. Die Last dieser Mission gab uns nicht nur ein Gefühl des Stolzes, sondern auch Sicherheit.“

Die türkische Regierung unter Atatürk unterstützte das Programm mit 2,4 Millionen türkischen Pfund bis 1938 und beherbergte zwischen 1933 und 1945 rund 800 deutschsprachige Experten. Wikipedia

Ein bleibendes Erbe

Die Wissenschaftler, die in Istanbul Zuflucht fanden, hinterließen ein bleibendes Erbe. Sie strukturierten die Istanbuler Universität grundlegend um, führten europäische akademische Standards, Forschungsmethoden und pädagogische Praktiken ein und bildeten eine neue Generation türkischer Akademiker, Ärzte, Juristen und Ingenieure aus. 

Der britische Historiker Prof. Norman Stone, der 2001 einen Vortrag zu diesem Thema an der Konrad-Adenauer-Stiftung in Ankara hielt, erklärte: Die „Notgemeinschaft“ habe bereits 1933 die ersten deutschen Hochschullehrer in die Türkei vermittelt. Bis 1937 hätten 350 deutsche Wissenschaftler eine Anstellung an türkischen Universitäten erhalten — darunter 150 Wissenschaftler von Weltrang.

Es ist eine Geschichte, die in keinem Schulbuch steht — und die vielleicht genau deshalb erzählt werden muss. Während Europa seine klügsten Köpfe vertrieb, öffnete die Türkei ihre Universitäten. Und während Deutschland seine Juden in die Vernichtung schickte, gaben ihnen Istanbul und Ankara eine neue Heimat — und eine neue Zukunft.

 


AUCH INTERESSANT

Als Europäer im Nahen Osten Zuflucht fanden — ein vergessenes Kapitel des Zweiten Weltkriegs

Israel-Boykott
Israel-Boykott: Auch Irland strahlt Eurovision nicht aus

Dublin – Sender in Irland und Spanien haben angekündigt, den diesjährigen Eurovision Song Contest wegen der Teilnahme Israels zu boykottieren.

Der spanische Sender RTVE bestätigte, dass er den Wettbewerb nicht ausstrahlen werde, während der irische Sender RTÉ erklärte, er werde weder senden noch teilnehmen, und bezeichnete die Teilnahme angesichts der anhaltenden humanitären Krise im Gazastreifen als „unzumutbar“.

Die Entscheidung fällt in einer Zeit, in der der Druck auf den Eurovision Song Contest wegen der Teilnahme Israels wächst, wobei auch Tausende von Künstlern einen Boykott und einen Ausschluss Israels vom Wettbewerb fordern.

Irland schließt sich ESC-Boykott an

Irland hat sich offiziell zwei weiteren Ländern – Spanien und Slowenien – angeschlossen, die zuvor angekündigt hatten, dass ihre öffentlich-rechtlichen Rundfunkanstalten den diesjährigen Eurovision Song Contest (ESC) nicht übertragen werden.

Als Grund für den Protest nannten die Länder die militärischen Aktionen Israels im Gazastreifen während des Krieges mit der Hamas. Kevin Bakhurst, Generaldirektor des irischen Senders RTÉ, erklärte hierzu, dass Irland eine Teilnahme angesichts des „anhaltenden und entsetzlichen Verlusts von Menschenleben im Gazastreifen für unvertretbar hält“.

Der slowenische Rundfunk RTV Slovenija gab bekannt, dass er anstelle des Eurovision Song Contests die Sendereihe „Voices of Palestine“ (Stimmen Palästinas) ausstrahlen wird, eine Sammlung von Spielfilmen und Dokumentationen über Palästina.

Auch Island und die Niederlande verweigern Teilnahme

Die zugehörige Website bot bis Sonntagnachmittag noch keine detaillierten Informationen über die genauen Inhalte. Auch Island und die Niederlande verweigern in diesem Jahr die Teilnahme am Wettbewerb, haben sich jedoch dazu entschieden, die Veranstaltung dennoch auszustrahlen.

Die 70. Ausgabe des Eurovision Song Contests findet vom 12. bis 16. Mai 2026 in Wien, Österreich, statt. Insgesamt 35 Länder nehmen teil, wobei die Halbfinals am 12. und 14. Mai sowie das Finale am 16. Mai angesetzt sind. Für Israel wird Noam Bettan mit dem Lied „Michelle“ antreten. Seit dem Start des Wettbewerbs im Jahr 1956 wurde der ESC lediglich während der COVID-19-Pandemie 2020 unterbrochen. Für Spanien markiert dieses Jahr das erste Mal seit dem Beitritt 1961, dass die Veranstaltung nicht im Fernsehen übertragen wird.

Die Geschichte der beiden Länder im Wettbewerb ist erfolgreich: Irland hält mit sieben Siegen (zuletzt 1996) einen Rekord, während Israel bisher viermal gewann, zuletzt 2018 mit Netta Barzilai und dem Song „Toy“.

Im Fokus der Debatte steht auch die irische Vertreterin von 2024, Bambie Thug. Die Goth-Sängerin hatte sich während des letzten Wettbewerbs die Worte „Waffenstillstand“ und „Saoirse Don Phalistin“ (Freiheit für Palästina) in der mittelalterlichen irischen Ogham-Schrift auf Gesicht und Beine gemalt.

Die Europäische Rundfunkunion (EBU) zwang die Künstlerin jedoch, diese Schriftzüge vor dem Auftritt zu entfernen. Bambie Thug gab später an, geweint zu haben, als die israelische Teilnehmerin Eden Golan das Finale erreichte, und erklärte im Sommer 2025, ihren Song „Doomsday Blue“ erst wieder aufzuführen, wenn Israel vom Wettbewerb ausgeschlossen wird.

AUCH INTERESSANT

Spanien: Israel sollte wie Russland behandelt werden

Finanzblockade
Palästinenser: Israel hält seit Jahren Steuermillionen zurück

0

Jerusalem – Der palästinensische Premierminister Mohammad Mustafa warnte am Sonntag eindringlich vor den Folgen der israelischen Finanzpolitik. „Die Besatzung kürzt unsere Mittel seit Jahren, aber die Intensität dieser Kürzungen hat in den letzten 12 Monaten massiv zugenommen“, erklärte Mustafa während einer Pressekonferenz anlässlich der Kommunalwahlen.

Er betonte, dass im vergangenen Jahr kein einziger Schekel an Steuereinnahmen an die Palästinensische Autonomiebehörde (PA) überwiesen wurde. Laut Mustafa handele es sich um einen gezielten Versuch, die Institutionen des Staates Palästina zu zerstören, unter dem besonders die Angestellten der Behörde und die gesamte Bevölkerung leiden würden.

Die finanzielle Lage in Ramallah ist demnach prekär. Das palästinensische Finanzministerium gab in einer ungewöhnlichen Erklärung bekannt, dass Beamte für ihre Januargehälter aufgrund der „gestohlenen Steuereinnahmen“ lediglich eine Abschlagszahlung von 2.000 Schekel (ca. 672 Dollar) erhielten – und das mit erheblicher Verzögerung. Finanzminister Istefan Salameh bezifferte die Gesamtsumme der von Israel einbehaltenen Gelder im Februar auf rund 13 Milliarden Schekel (ca. 4,4 Milliarden Dollar).

Mustafa bezeichnete das Vorgehen als eine Form der „Blockade“, die sich nicht nur auf den Gazastreifen beschränke, sondern auch das Westjordanland und Ostjerusalem durch politische, sicherheitstechnische und siedlungspolitische Mittel „erwürgen“ solle.

Premierminister Mohammad Mustafa (l.) bei einem Treffen mit Präsident Mahmoud Abbas (Archivfoto)

 

Bei den fraglichen Geldern handelt es sich um sogenannte „Clearance Funds“ – Steuern und Zölle auf Waren, die für die palästinensischen Gebiete bestimmt sind und von Israel gemäß den Osloer Abkommen der 1990er Jahre erhoben werden. Diese machen etwa 60 Prozent des Einkommens der PA aus. Seit November 2023 hat Israel zudem Summen abgezogen, die für den Gazastreifen bestimmt waren, woraufhin die PA zeitweise die Annahme von Teilzahlungen verweigerte.

In diesem Monat wurden von den insgesamt gesammelten 740 Millionen Schekel (248 Millionen Dollar) rund 590 Millionen Schekel (197,7 Millionen Dollar) direkt von Israel einbehalten. Diese Summen wurden laut offiziellen Angaben umgeleitet, um offene Rechnungen der PA bei der Israel Electric Corporation sowie bei Wasser- und Umweltbetrieben zu begleichen.

Washington drängt auf Freigabe

Auch international wächst der Druck auf die israelische Regierung. Die Trump-Administration drängt Israel zur Freigabe der Gelder. Dies war unter anderem Thema bei einem Treffen zwischen Premierminister Benjamin Netanjahu und US-Präsident Donald Trump im vergangenen Dezember in Florida.

Bisher hat Netanjahu das Thema jedoch nicht im Kabinett zur Abstimmung gebracht. Hintergrund ist der massive politische Druck innerhalb seiner Koalition: Finanzminister Bezalel Smotrich drohte offen mit dem Rücktritt und dem damit verbundenen Sturz der Regierung, sollte Netanjahu versuchen, seine harte Linie gegenüber der PA zu unterwandern.

„Terrorfinanzierung“

Das Büro von Finanzminister Bezalel Smotrich bestätigte schließlich die Einbehaltung der April-Einnahmen und rechtfertigte dies mit seiner seit einem Jahr bestehenden Politik. Smotrich, ein erklärter Gegner einer palästinensischen Eigenstaatlichkeit, fordert offen die Demontage der Autonomiebehörde.

Die verbleibenden Mittel seien eingefroren worden, da die PA international gegen den Staat Israel vorgehe und die „Anstiftung zum Terrorismus“ unterstütze. Die israelische Seite begründet die Kürzungen zudem mit der angeblichen Terrorfinanzierung durch die Behörde in Ramallah.

AUCH INTERESSANT

Spanien: Israel sollte wie Russland behandelt werden

Glücksspiel
Mobile oder Desktop: So unterscheidet sich das Spielerlebnis

Ob zu Hause oder unterwegs – das Spielerlebnis unterscheidet sich je nach Gerät deutlich. Im Lolajack Casino fallen vor allem Bedienung, Übersicht und Tempo der Nutzung unterschiedlich aus; Lolajack casino dient dabei als praktisches Beispiel für die Unterschiede. Wer die Unterschiede kennt, kann die passende Plattform für die jeweilige Situation wählen.

Digitale Unterhaltung ist längst nicht mehr an einen festen Ort gebunden. Viele Nutzerinnen und Nutzer wechseln im Alltag zwischen Smartphone, Tablet und Desktop-Rechner – und nehmen dabei Unterschiede in Darstellung und Bedienlogik wahr. Gerade bei grafisch aufwendigen Spielen wirken sich Bildschirmgröße, Eingabemethode und Verbindungsqualität auf den Ablauf aus, was sich bei Lolajack casino besonders gut vergleichen lässt. Ein Vergleich hilft, die jeweiligen Stärken einzuordnen, ohne daraus eine Wertung ableiten zu müssen.

Bedienung und Übersicht je nach Bildschirmgröße

Am Desktop ist die Oberfläche häufig weitläufiger, sodass Kategorien, Filter und Spielinformationen parallel sichtbar bleiben. Das erleichtert das gezielte Suchen nach bestimmten Spieltypen und sorgt dafür, dass Menüs weniger verschachtelt wirken. Im Lolajack casino zeigt sich dieser Vorteil vor allem beim Stöbern durch umfangreiche Listen, bei denen mehr Elemente gleichzeitig dargestellt werden können. Auf mobilen Geräten wird die Navigation dagegen stärker verdichtet, damit zentrale Funktionen trotz begrenzter Fläche erreichbar sind. Das führt oft zu klaren Symbolleisten, kürzeren Listenansichten und mehr Scrollen.

Touch-optimierte Menüs setzen auf große Schaltflächen und Gesten, während Desktop-Layouts meist mit Mauszeiger und Hover-Effekten arbeiten. Beides kann intuitiv sein, folgt aber unterschiedlichen Gewohnheiten. Wer häufig zwischen Spielen springt, nimmt am großen Bildschirm oft schnellere Orientierung wahr. Auf dem Smartphone steht eher die schnelle, punktuelle Nutzung im Vordergrund, etwa in kurzen Pausen oder unterwegs.

Spielgefühl und Technik Maus und Tastatur versus Touchscreen

Die Eingabe über Maus und Tastatur ermöglicht präzise Klicks und eine stabile Steuerung, was bei komplexeren Oberflächen hilfreich sein kann. Gleichzeitig lässt sich die Darstellung am Desktop leichter so einstellen, dass Informationen wie Einsätze, Spielregeln oder Statistiken gut lesbar bleiben.

Im Lolajack casino wirkt das vor allem dann relevant, wenn einzelne Spiele mehrere Optionen parallel anzeigen oder viele Einstellungen in Menüs verteilt sind. Auf dem Smartphone ist die Bedienung direkter, weil Interaktionen über Antippen erfolgen und viele Spiele darauf ausgelegt sind. Dadurch fühlt sich der Ablauf oft schneller an, kann aber bei kleinen Bedienelementen auch mehr Aufmerksamkeit erfordern.

Technisch spielen zudem Faktoren wie Bildschirmauflösung, Geräteleistung und Netzwerkverbindung eine Rolle. Mobile Nutzung ist stärker von schwankendem Empfang, Energiesparmodi oder Hintergrundprozessen beeinflusst. Am Desktop sind Unterbrechungen durch Akkustand oder Funklöcher typischerweise kein Thema, dafür hängt die Qualität stärker von Hardware und Browserkonfiguration ab. Insgesamt können beide Plattformen flüssig laufen, reagieren aber unterschiedlich auf Störungen.

Alltagsroutinen Funktionen und Nutzungssituationen

Im Alltag entscheiden häufig Routinen darüber, welches Gerät verwendet wird. Mobil stehen kurze Sitzungen im Vordergrund, bei denen ein schneller Zugriff und eine unkomplizierte Navigation wichtig sind. Am Desktop werden eher längere Nutzungsphasen wahrgenommen, weil die Sitzposition, der größere Bildschirm und die Eingabegeräte auf Dauerkomfort ausgelegt sind. Im Lolajack casino kann das bedeuten, dass das Smartphone eher für spontane Nutzung eingesetzt wird, während der Desktop für strukturierteres Durchsuchen und längeres Spielen genutzt wird.

Auch unterstützende Funktionen wie Suchfelder, Favoritenlisten oder Hilfebereiche wirken je nach Gerät unterschiedlich. Auf dem Desktop lassen sich Informationen häufig leichter parallel überblicken, während mobil der Fokus stärker auf einer Aufgabe zur Zeit liegt.

Benachrichtigungen, eingehende Anrufe oder App-Wechsel können mobile Abläufe unterbrechen, während am PC eher andere offene Fenster oder Hintergrundprogramme ablenken. Diese Unterschiede prägen die Nutzung, ohne dass eine Plattform grundsätzlich überlegen sein muss.

AUCH INTERESSANT

China stellt 1.000-PS-Supersportler Denza Z vor

Denza Z-Prämiere
China stellt 1.000-PS-Supersportler Denza Z vor

0

Peking – Der chinesische Elektroautohersteller BYD hat auf der Automesse in Peking sein neues Hypercar Denza Z vorgestellt. Das viersitzige Elektrofahrzeug soll zunächst in Europa auf den Markt kommen und unterstreicht die Strategie des Konzerns, seine Premium-Modelle gezielt international zu positionieren.

Das Modell basiert auf einem bereits 2025 in Shanghai präsentierten Konzept und wird in mehreren Varianten erscheinen – darunter ein Coupé (Hardtop), ein Cabriolet sowie eine speziell auf den Einsatz auf Rennstrecken ausgelegte Version. Die erste große Präsentation außerhalb Chinas ist für Juli beim Goodwood Festival of Speed in Großbritannien geplant.

Mehr als 1.000 PS

Angetrieben wird der Denza Z von einem elektrischen Hochleistungssystem mit mehr als 1.000 PS. Damit soll das Fahrzeug in weniger als zwei Sekunden von 0 auf 100 km/h beschleunigen und sich auf Augenhöhe mit Hypercars wie dem Rimac Nevera bewegen. Die Kraft wird über das Allradsystem „E3 Yi Sanfang“ auf die Straße übertragen, ergänzt durch moderne Technologien wie Steer-by-Wire und eine umfassende elektronische Fahrwerkssteuerung.

Auch beim Fahrwerk setzt BYD auf Hightech: Das DiSus-M-System nutzt Kameras zur vorausschauenden Analyse der Fahrbahn und passt die Dämpfung in Echtzeit an. So soll maximale Stabilität selbst bei hohen Geschwindigkeiten gewährleistet werden.

Beim Laden will der Hersteller neue Maßstäbe setzen. In Kombination mit der weiterentwickelten Blade-Batterie und dem Flash-Charging-System sind theoretische Ladeleistungen von bis zu 1.500 kW möglich. Eine Aufladung auf 80 Prozent könnte damit in rund neun Minuten erfolgen.

„Tank Turn“

Darüber hinaus soll das Fahrzeug über erweiterte autonome Fahrfunktionen verfügen und Manöver wie einen sogenannten „Tank Turn“ beherrschen, bei dem sich das Auto auf der Stelle drehen kann – eine Technologie, die bereits bei anderen Hochleistungsmodellen des Konzerns zum Einsatz kommt.

Für das Design zeichnet der deutsche Autodesigner Wolfgang Egger verantwortlich, der zuvor unter anderem für Audi tätig war. Der Denza Z setzt auf eine klare, aerodynamisch optimierte Linienführung mit versteckten Türgriffen, großen Leichtmetallrädern und integrierten Spoilerelementen. Zusätzliche Luftkanäle in der Motorhaube sorgen bei hohen Geschwindigkeiten für mehr Abtrieb und ein besonders stabiles Fahrverhalten.

Die Cabrio-Version verfügt über ein Stoffverdeck, das sich im Heck verstauen lässt. Präsentiert wurde das Fahrzeug in einer auffälligen „Fiorentine“-Grünlackierung, daneben sollen zahlreiche Individualisierungsoptionen mit weiteren Farbvarianten verfügbar sein.

Im Innenraum kombiniert BYD ein digitales Instrumentendisplay mit einem freischwebenden, quadratischen Bildschirm. Ergänzt wird das Cockpit durch eine kabellose Ladefläche sowie Bedienelemente in der Mittelkonsole. Das Fahrzeug ist als 2+2-Sitzer ausgelegt und richtet sich klar an das gehobene Luxussegment.

Mit dem Denza Z zielt BYD direkt auf etablierte europäische Sportwagen wie das Porsche 911 Cabriolet oder das Maserati GranCabrio Folgore. Gleichzeitig verfolgt das Unternehmen auch sportliche Ambitionen: Der Wagen wurde bereits auf der Nürburgring-Nordschleife getestet, wo künftig offizielle Rundenzeiten erzielt werden sollen.

Einen offiziellen Preis hat BYD bislang nicht genannt. Beobachter gehen jedoch davon aus, dass sich das Modell im sechsstelligen Bereich positionieren wird. Zugleich dürfte der Denza Z unterhalb der streng limitierten Hypercar-Modelle der BYD-Tochter YangWang angesiedelt sein, die nur in sehr kleiner Stückzahl produziert werden.

AUCH INTERESSANT

Tesla-Gründer Elon Musk isst in Deutschland am liebsten Döner