Skip to main content

Über uns

Über uns

Unsere Expertise, Ihr Erfolg. Seit über 50 Jahren.

Die Ratiodata ist seit über 50 Jahren ein mehrfach ausgezeichneter IT-Dienstleister und Managed Service Provider. Wir setzen auf maßgeschneiderte Konzepte und liefern IT-Hardware, -Software und -Services mit zertifizierter Qualität und höchsten Sicherheitsstandards. Unsere Expertise konzentriert sich auf die Entwicklung von Lösungen für Kunden mit komplexen IT- und Digitalisierungsbedarfen sowie hohen regulatorischen Anforderungen – nicht zuletzt dank unserer Wurzeln in der Genossenschaftlichen FinanzGruppe.

Pavillon bei der Jubiläumshausmesse

Die Ratiodata SE ist der Systemhauspartner der Unternehmensgruppe Atruvia AG

1972

 gegründet

+1.500

Mitarbeiter*innen

10

Standorte

~333,1

Mio. Euro Umsatz im Jahr 2023

Immer in Ihrer Nähe mit viel Erfahrung und Servicestärke.

Als zuverlässiger IT-Partner und Managed Service Provider legen wir großen Wert darauf, jederzeit schnell reagieren zu können. Mit 1.500 Mitarbeiter*innen und bundesweit zehn Standorten und 22 Campus-Teams zählen wir zu den größten Systemhäusern und Technologiepartnern in Deutschland. Als 100-Prozent-Tochter von Atruvia AG sind wir der Systemhauspartner der Genossenschaftlichen FinanzGruppe Volksbanken Raiffeisenbanken. In Luxemburg ist unsere Schwestergesellschaft Ratiodata Luxemburg S.à r.l. ansässig.

Mit einem bundesweit flächendeckenden Netz von Servicetechniker*innen und leistungsstarken Kompetenzzentren stehen wir für zuverlässige Dienstleistungen rund um IT- und SB-Infrastruktur. Im Segment Banken-SB sind wir Multivendor und Marktführer für herstellerunabhängige Dienstleistungen. 

Zu finden sind wir in Münster, Frankfurt am Main, Berlin, Karlsruhe, Duisburg,
Kassel, Hannover, Koblenz und Velburg. Und natürlich direkt vor Ort bei unseren Kunden.

Unsere Kernkompetenzen liegen in den Bereichen:

  • IT-Infrastruktur & Workplace-Systeme & Lösungen 
  • Netzwerk- & IT-Security 
  • Hardwarebeschaffung, Rollout & Services 
  • Managed- & Field-Service bundesweit 
  • Betankungs-, Reparatur-, Test- & Zertifizierungszentren 
  • Scan- & Dokumenten-Services 

Zertifizierte Leistung, bewährte Qualität.

Wir legen höchsten Wert auf Qualität und Sicherheit. Durch umfangreiche Zertifizierungen sind wir am Markt als vertrauenswürdiger und hochleistungsfähiger Anbieter bestens aufgestellt.

  • ISO 9001:2015 | Qualitätsmanagementsystem (QMS)
  • ISO 14001:2015 | Umweltmanagementsystem (UMS)
  • ISO/IEC 27001:2013 | Informationssicherheitsmanagementsystem (ISMS)
  • IDW PS 951 (Typ 2) | Dienstleistungsbezogenes Internes Kontrollsystem (IKS)
  • BSI TR-03138 (TR-RESISCAN) | Technische Richtlinie Ersetzendes Scannen
  • Zertifiziertes Unternehmen für öffentliche Auftraggeber (PQ) 

 

Hohe Branchenexpertise und Kundenzufriedenheit bestätigen uns neben eigenen Befragungen auch die mehrfachen Auszeichnungen als „Bester IT-Dienstleister” und „Bester Managed Service Provider” von ChannelPartner und COMPUTERWOCHE.

Für unsere Innovationskraft zeichnete uns „Die Deutsche Wirtschaft“ für verschiedene IT-Lösungen die vergangenen drei Jahre in Folge als „Innovator des Jahres“ aus.

Wir als Ratiodata verstehen Nachhaltigkeit als Chance uns bewusst mit den Auswirkungen unseres wirtschaftlichen Handelns auseinanderzusetzen. Für unser nachhaltiges Wirtschaften erhielten wir den Bronze-Status der unabhängigen Rating-Agentur EcoVadis.

Hier erhalten Sie weitere Informationen zu unseren Zertifizierungen und Nachhaltigkeitsaktivitäten.   

IT-Exzellenz seit 1973.

Eine Vergangenheit, auf die man stolz sein kann. Eine Zukunft, auf die man gespannt sein darf.

Die Ratiodata blickt auf über 50 Jahre Unternehmensgeschichte zurück. Begleiten Sie uns auf eine Reise durch fünf Jahrzehnte und erleben Sie, wie sich die Ratiodata im Laufe der Zeit entwickelt hat und gewachsen ist.

Aktuelle News

Ratiodata veröffentlicht Geschäftsbericht 2023

| Allgemein, Geschäftsbericht | No Comments
Im Geschäftsjahr 2023 hat die Ratiodata Gruppe mit einem Umsatz von 388,0 Millionen Euro ihre ambitionierten Jahresziele erreicht, wirtschaftliche Stabilität bewiesen und sich als zukunftssicherer Arbeitgeber positioniert. „Das vergangene Jahr…

Erfolgreiche Premiere der IT-Trends & Solutions 2024

| Allgemein | No Comments
Am 5. Juni öffnete der DZ Bank Tower in Frankfurt am Main seine Türen für die Premiere eines neuen Veranstaltungsformats der Ratiodata: „IT-Trends & Solutions 2024“. 40 Teilnehmer*innen nutzten die…

Ratiodata als Bester Managed Service Provider 2024 ausgezeichnet

| Allgemein | No Comments
Die Ratiodata SE wurde als Bester Managed Service Provider Deutschlands ausgezeichnet. In einer Studie, die vom unabhängigen Marktforschungsunternehmen iSCM Institute im Auftrag von COMPUTERWOCHE und ChannelPartner durchgeführt wurde, schaffte es…

IT-Historie: Die Geschichte der Bankentechnologie und ihre Zukunft

Die Banken haben durch die Digitalisierung und Entwicklung neuer Technologien einen großen Wandel vollzogen. Sie haben ihre Tätigkeiten erweitert, neue Geräte und Systeme zum Einsatz gebracht und neue Sicherheitslösungen installiert.

Die Banken vor den SB-Geräten

Ein Blick in die Vergangenheit, in die Zeit vor den SB-Geräten, zeigt, wie sehr sich der Bankensektor verändert hat. Die Geschäftsbeziehungen der privaten Banken in Deutschland beschränkte sich in den 1950er Jahren weitestgehend auf Unternehmen. Zu der Zeit war die einzige Leistung der Banken an Privatkunden die Kreditvergabe, da die Einführung von Lohn- und Gehaltskonten noch am Anfang stand. In den Jahren um 1959 stieg das Interesse der Banken, auch Privatkunden in ihr Kundensegment aufzunehmen. Die Wirtschaftswunderjahre und der damit einhergehende Anstieg der Einkommen waren die Hauptauslöser dafür. Die ersten Kleinkredite wurden angeboten und Lohn- und Gehaltskonten eingeführt.

Die Erweiterung der Zielgruppe wurde damals als revolutionär angesehen, doch es wurde schnell klar, dass die Banken ihre Dienstleistungen kontinuierlich erweitern müssen, um neue Kunden zu gewinnen, einen Kundenstamm aufzubauen und diese auch langfristig zu halten. Durch neue Erfindungen wie die Lochkarten und später dann Computer war es den Banken möglich, Kundendaten zu speichern. Dies erleichterte bestimmte Prozesse wie beispielsweise die Entscheidung über eine Kreditvergabe, da die Banken sie dem System überlassen konnten.

Die Entstehung des Bankautomaten

Der erste Bankautomat mit dem Namen „Bankograph“ wurde 1939 entwickelt. Die damalige City Bank of New York nahm das Gerät in Betrieb, baute ihn jedoch wegen mangelnder Akzeptanz nach nur einem halben Jahr wieder aus. Etwa 25 Jahre später, 1965, wollte John Shepherd-Barron seinen Scheck einlösen, doch er verpasste nur ganz knapp die Öffnungszeiten. Daraufhin überlegte er in seiner Badewanne, weshalb es Automaten für Schokoriegel gibt, aber keinen für Geld. Und so entwickelte er kurze Zeit später seine erste Ausführung eines Bankautomaten. Sie wurden 1967 von der Barclays Bank sechs Mal bestellt und am 27. Juni in Enfield, England, in Betrieb genommen. Das einzige Problem: Um dort Daten speichern zu können, mussten die Schecks leicht radioaktiv sein. Am 27. Mai 1968 wurde schließlich in Deutschland der erste Bankautomat aufgestellt, zunächst durften diesen aber nur 1.000 ausgewählte Kunden nutzen und das ausschließlich während der Öffnungszeiten. Die Kunden benötigten zu diesem Zeitpunkt noch eine Ausrüstung von einem Doppelbartschlüssel für den Tresor, eine Identifikationskarte aus Plastik und jeweils eine Lochkarte als Anzahlungsbeleg, um die Auszahlung einer 100-DM-Banknote zu veranlassen.

Weiterentwicklung der Bankautomaten zu einem wichtigen Bestandteil der Gesellschaft

Die modernen Geldautomaten haben – bis auf die vier Ziffern als Pin – kaum etwas mit den früheren Automaten gemein. Die heutigen Geldautomaten verfügen über eine Verbindung zu einem Zentralcomputer, um Informationen abzugleichen. Außerdem sind sie rund um die Uhr verfügbar und ermöglichen neben der Aus- sogar die Einzahlung von Bargeld, was früher nicht der Fall war. Durch die EC- oder Kreditkarte ist es heute zudem nicht mehr notwendig, einen ganzen Rucksack mit Ausrüstung mitzunehmen, um etwas Geld abzuheben. Heute sind sie aus dem Alltag vieler Menschen nicht mehr wegzudenken, allein in Deutschland gibt es ungefähr 60.000 Geldautomaten, an denen man sich rund um die Uhr mit Bargeld versorgen kann. Mittlerweile gibt es sogar sogenannte Drive-in-Geldautomaten, hier braucht man, wie bei einer Fast-Food-Bestellung, nicht einmal mehr aus dem Auto zu steigen.

Die Notwendigkeit von Sicherheitslösungen

Grundsätzlich ist eine Bank dazu verpflichtet bestimmte Anforderungen, die im Kreditwesengesetz (KWG) heruntergeschrieben worden sind, zu erfüllen. Darüber hinaus ist es durch zunehmende Sprengungen von Geldautomaten immer wichtiger geworden, als Bank seine Automaten zu schützen. Viele Geldautomaten werden anlässlich zahlreicher Sprengungen und anderen Überfällen daher mit neuen Sicherheitslösungen ausgestattet und teilweise in besonders gefährdeten Vierteln oder in nicht beleuchteten Straßen abgebaut. Seit dem Beginn der statistischen Erfassung durch das Bundeskriminalamt im Jahr 2005 wurden im Jahr 2020 und 2021 mit insgesamt 414 und 392 Geldautomaten-Sprengungen die höchsten Fallzahlen verzeichnet.

Um die Bankautomaten und Menschen, die bei einer Sprengung gefährdet wären, schützen zu können, wurden die meisten Bankautomaten mit Sprengmatten ausgestattet. Außerdem gibt es eine Technologie, die mittels Gasdetektoren eine Explosion verhindern kann. Sollte es doch zu einer Sprengung kommen, können die Scheine zudem durch ein Färbesystem unbrauchbar gemacht werden. Des Weiteren setzen die Bankfilialen immer häufiger auf freistehende Pavillons. Im inneren der ringförmigen Gebilde aus 15 Zentimeter starkem Stahlbeton befinden sich die Geldautomaten, sodass die Täter keine Chance haben, die Automaten zu sprengen. Falls in der Bank eingebrochen wird, kommt die Verneblungsanlage zum Einsatz, wodurch den Tätern die gesamte Sicht versperrt wird. Die Banken arbeiten daran, Sprengungen so aufwendig wie möglich zu machen, sodass sich der „Gewinn“ durch den Diebstahl nicht mehr lohnt, da die Kosten der Kriminellen durch Sprengstoff, Fluchtauto etc. höher sind als der tatsächliche Inhalt des Automaten. Denn die Automaten werden zusätzlich regelmäßig geleert, damit die Bargeldbestände in den Automaten nicht zu hoch sind.

Sie sehen gerade einen Platzhalterinhalt von Youtube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Sie sehen gerade einen Platzhalterinhalt von Youtube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Online-Banking – das moderne Banking

Man sollte meinen, Online-Banking ist eine Entwicklung, die gerade erst auf den Markt gekommen ist. Aber um genau zu sein, liegen die Anfänge des Online-Bankings bereits im Jahr 1980. So wurde am 12. November 1980 ein BTX(Bildschirmtext)-Versuch mit fünf Rechnern von der Deutschen Bundesbank gestartet. BTX war ein interaktiver Online-Dienst, der die heutigen Word Wide Web Funktionen vorwegnahm. Beteiligt waren Versandhäuser, ein Reiseveranstalter und die damalige Verbraucherbank. Der offizielle Starttermin war allerdings erst drei Jahre später. Man benötigte ein BTX-Terminal, ein Lesegerät, eine Liste mit den Transaktionsnummern (TAN), einen Login mit Passwort und eine funktionierende BTX-Leitung. Das Problem: Die Technik war sehr teuer, ruckelte und verbreitete sich eher langsam. Weshalb die meisten Banken erst in den 90ern in das Online-Banking einstiegen.

1980 wurde der BTX-Dienst der Deutschen Post in die Testphase geschickt. Die Testpersonen im Großraum Düsseldorf erhielten einen besonderen Service. Sie konnte über BTX ihre Bankgeschäfte von zuhause abwickeln. Alles was sie dazu brauchten, war eine Zugangs- und Schlüsselnummer. Heute als Login und Passwort bekannt. Sie mussten bei jeder Transaktion eine Transaktionsnummer verifizieren und bestätigen. Dies kennen wir heute als TAN. Nach dem offiziellen Start von BTX im Jahr 1983, führten immer mehr Banken und Sparkassen das Online-Banking ein. Bevor 1999 BTX eingestellt wurde, war eine Manipulation durch Abfangen der Transaktion kaum möglich. Nach dem Einstellen kamen dann langsam die ersten Online-Banking-Zugänge über das Internet auf. Spätestens im Jahr 2014 nach der Einführung des SEPA-Verfahrens und die Pflicht, Lastschriften online abzuwickeln, ist das Online-Banking im geschäftlichen so wie privaten Bereich vollkommen angekommen. Beim Online-Banking fallen im Vergleich zum Offline-Banking kaum Kontoführungsgebühren an.

Die Notwendigkeit von Sicherheitslösungen

Die fortschreitende Digitalisierung, das Verlangen der Menschen den Großteil ihrer Einkäufe online abzuwickeln und dazu noch die Corona-Pandemie haben das Umstellen von Offline- zu Online-Banking stark beschleunigt. Die Nutzer erwarten ein stetig wachsendes Angebot der Banken im Online-Banking-Bereich und eine hohe Datensicherheit. Die Zahl der Geldautomaten nimmt dagegen immer weiter ab. So sank 2018 die Zahl der Geldautomaten in Deutschland schon zum dritten Mal in Folge und der Trend wird sich wahrscheinlich weiter fortsetzen. Die Banken wollen Kosten sparen und es lohnt sich nicht überall, einen Geldautomaten stehen zu haben. Die zunehmende Gefahr durch Bankautomaten Sprengungen beschleunigen den Rückgang ebenfalls und stellen die Banken vor neue Herausforderungen ihre Automaten in und außerhalb der Filialen mit neuen Sicherheitsmaßnahmen auszustatten.

Studien zeigen, um das Wachstumspotential der Banken weiter anzuheben, wäre ein mögliches Szenario, die Banken europaweit zu verknüpfen und ihre Produkte und Dienstleistungen auch dort anzubieten. Des Weiteren könnten die Banken auch über das herkömmliche Banking hinaussehen und den Menschen eine Anlaufstelle für den sozialen Austausch bieten, auch das kann schnell zu Bankgesprächen führen, also eine Art Bürgerdienst in die Bankfiliale integrieren. Vielleicht kommt es aber auch ganz anders und die Filiale von morgen ist auf dem Bildschirm des Kunden. Der Technik werden hier keine Grenzen gesetzt, Virtual Reality oder das Metaverse sind Aspekte, die uns in naher Zukunft möglicherweise auch im Bankensektor begegnen werden.

IT-Historie: Automatisierung und KI

Menschliche und Roboter Hand

Weshalb war die Automatisierung und die Künstliche Intelligenz (KI) eigentlich schon immer ein Thema und wie wird sich dies auf unsere Zukunft auswirken? Welche Chancen bestehen insbesondere in der IT für diese Technologien?

 

Von PC-Programmen bis zur App-Entwicklung

In den 1940er Jahren, ungefähr 100 Jahre bevor die erste programmierbare Rechenmaschine konstruiert wurde, schrieb Ada Lovelace das erste Computerprogramm der Welt. In ihrer Lebenszeit bekam sie dafür allerdings kaum Anerkennung. Heute dagegen wird ihr Werk als revolutionär bezeichnet. In den 1970er Jahren wurde sogar die Computersprache ADA nach ihr benannt.

Erst in den späten 1950er Jahren wurde der Begriff „Software“ eingeführt. In dieser Zeit wurden zahlreiche Programmiersoftwares geschaffen, sie waren allerdings zum Großteil noch nicht kommerziell erhältlich. Die Computernutzer mussten ihre Software meist selbst programmieren, dabei konnten sie sie spezifisch auf ihre Bedürfnisse anpassen. Als nach einiger Zeit Computer auch für Privatpersonen erhältlich waren, wurde Software dann sehr viel populärer. Da die meisten Personen jedoch keine Programmiersprache konnten, wurde das Betriebssystem entwickelt, das mit einer spezialisierten Software betrieben wurde. Eines der frühsten Betriebssysteme war MS-DOS. Zwischen den 60er und 70er Jahren war es sehr beliebt, Software in einem Store zu kaufen und die verschiedensten Programme auf den Computer zu laden. Als Festplatten in einem PC Standard wurden, konnte sogar schon Software installiert werden, bevor die PCs überhaupt den Hersteller verließen.

Im Jahr 1992 wurde dann das erste Smartphone entwickelt, das einen Kalender und ein Adressbuch besaß. Außerdem konnte es E-Mails und Faxe verschicken. Allerdings hatten die Nutzer erst nach der Veröffentlichung des App Stores und Google Play Stores, 2008, die Möglichkeit sich zahlreiche Apps selbst herunterzuladen. Weitere Informationen zu der Entstehung von Smartphones und Apps finden Sie hier.

Der Ursprung der Automation

Bereits im ersten Jahrhundert nach Christus in Ägypten entstanden die ersten Ideen zur Automatisierung, so schuf ein Mathematiker und Ingenieur den ersten Verkaufsautomaten. Er schenkte Milch und Wein aus. Aber wie genau sich die Automatisierung geschichtlich weiterentwickelt hat, können die Historiker nur erahnen. Sie sind sich aber sicher, dass die relevantesten Schritte in der Geschichte während der ersten industriellen Revolution Ende der 1800er stattfanden. Hier wurden dampfkraftgetriebene Webmaschinen mechanisiert, was zu einer enormen Produktionssteigerung führte, aber gleichzeitig auch die ersten Konflikte über die Verdrängung der Menschen durch die Maschinen entstehen ließ.

Als die Elektrizität erfunden wurde, trieb das die Automatisierung nochmals voran und führte dazu, dass 1913 Henry Ford die erste Fließbandfertigung für das Automodell „Tin-Lizzy“ in Betrieb nahm. Der erste Industrieroboter wurde 1956 erfunden. Im Lauf der 70er und 80er Jahre nahm die Robotisierung von Automobilfabriken immer weiter Fahrt auf und die Roboter übernahmen weitere Aufgaben, die zuvor der Mensch ausübte. Seit der Einführung des PCs erhielt die Automatisierung auch im IT-Bereich Einzug. Sie machte es möglich, bestimmte Daten automatisch zu erfassen, auszuwerten und auszuführen.

Menschliche und Roboter Hand

Die Entstehung der KI und ihre Chancen für die IT

Bereits im Jahr 1936 wurde der Grundstein für die Künstliche Intelligenz geschaffen. Alan Turing, ein britischer Mathematiker, stellte die Theorie auf, dass eine Rechenmaschine in der Lage wäre, kognitive Prozesse auszuführen. Unter der Bedingung, dass sie sich in Einzelteile zerlegen und durch einen Algorithmus darstellen lassen. Der Begriff „Künstliche Intelligenz“, kurz „KI“, entstand im Sommer 1956 als der Programmierer John McCarthy auf einer Konferenz am Dartmouth College den Begriff KI vorstellte. Er soll beschreiben, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. 1966 entstand schließlich der erste Chatbot mit dem Namen „ELIZA“. Die KI gelangte erstmals 1972 auch in die Medizin und diente zur Unterstützung bei Diagnosen und Therapien. In den weiteren Jahren wurde die KI stetig weiterentwickelt: Sie lernte sprechen, schlug den Weltmeister im Schach und brachte sich durch Sprachassistenten in unseren Alltag ein. Trotz allem steht die Entwicklung der KI jedoch noch weit am Anfang. Sie muss zuverlässiger und sicherer gegen Manipulation werden, um sie in zahlreichen anderen Bereichen einsetzen zu können.

Die KI kann in Sekunden Entscheidungen treffen, wo der Mensch mehrere Minuten benötigt. Darüber hinaus arbeitet sie nach festen Regeln und ist somit nicht beeinflussbar, weshalb sie für die Auswertung von Daten oder Automation von Prozessen besonders gut geeignet ist. Künstliche Intelligenz kann zudem sehr flexibel eingesetzt und an die Bedürfnisse eines Unternehmens angepasst werden. Durch die zunehmende Automatisierung profitieren auch IT-Abteilungen. Durch Prozesse, die von künstlichen Intelligenzen übernommen werden, können Betriebskosten gespart und Freiräume geschaffen werden, um die Mitarbeiter*innen in andere wichtige Projekte zu integrieren, anstatt alltäglich wiederkehrende Aufgaben abzuarbeiten.

Der IT-Sektor spielt im Bereich der Cybersicherheit in Verbindung mit KI eine immer größer werdende Rolle. Bereits jetzt existieren neben den klassischen Softwareapplikationen zur Identifikation von Viren und anderen Bedrohungen einige Lösungen, die zur Verteidigung der Daten auf Algorithmen aus dem Bereich der KI zurückgreifen. Allerdings birgt das auch Gefahren, da die intelligenten Algorithmen auch für Angriffe genutzt werden können.

Ein Blick in die Zukunft

Die Künstliche Intelligenz wird durch die nötige fortschreitende Digitalisierung als Schlüsseltechnologie für die Gesellschaft, Wirtschaft und Wissenschaft angesehen. Sie wird einen immer größeren Einfluss auf unser Leben haben und in einigen Jahren unentbehrlich sein. Bereits heute wird das autonome Fahren erforscht und in Teilen bereits in Automobilen zur Anwendung gebracht.

Auch das Metaverse wird in naher Zukunft Teil unseres Lebens sein. So erhoffen es sich zumindest die Unternehmen, die seit zahlreichen Jahren an diesem Projekt arbeiten. Das Metaverse umfasst im Gegensatz zum „Universe“ sowohl die digitale als auch physische Welt. Es soll eine eigene Wirtschaft abbilden können, die parallel in Echtzeit zur physischen Welt abläuft. Im Metaverse soll man ebenfalls Produkte, Waren und Dienstleistungen kaufen und ausprobieren können. Häufig wird es als neue Evolutionsstufe des Internets gesehen, das sich von den zweidimensionalen Displays lösen will und das Internet vollkommen erlebbar macht. Mit einigen der bereits vorhandenen Technologien wie Virtual Reality oder Augmented Reality kann die reale Welt bereits jetzt schon mit der digitalen Welt verzahnt werden.

Matthew Ball veröffentlichte im Jahr 2020 einen Essay, worin er das Metaverse beschreibt. Zuckerberg erklärte diesen sogar zur Pflichtlektüre für seine Angestellten. In dem Essay definiert er das Metaverse über sieben Merkmale: Es hat kein Ende, keine Pause und auch keinen Reset. Es ist eine erweiterte Realität, weshalb es in Echtzeit stattfindet. Die Nutzerzahl des Metaverse ist unbegrenzt, trotz dessen erfährt jeder User das Gefühl ein Individuum zu sein. Des Weiteren hat es eine funktionierende Wirtschaft wie im echten Leben. Außerdem soll sich das Metaverse aus den Inhalten und Erfahrungen speisen, die von allen kreiert werden, und eine uneingeschränkte Interoperabilität zwischen einzelnen Technologien gewährleisten.

IT-Historie: Die Geschichte der Arbeitsplatz-Hardware

Der holperige Start der Schreibmaschine

Schon 1741 meldete der Engländer Henry Mill ein Patent auf „eine Maschine oder ein künstliches Verfahren, um Buchstaben drucken oder schreiben zu können, einzeln oder nacheinander, wie in der üblichen Schrift.“ an. Das erste erhaltene, Schreibmaschinen hergestellte, Schriftstück stammt allerdings erst aus dem Jahr 1808. In den Jahren darauf gab es immer wieder Versuche, Schreibmaschinen herzustellen, doch sie waren oftmals dazu gedacht Blinden die Kommunikation zu erleichtern.

Oskar Picht ließ bereits in den 1900er Jahren ein Modell herstellen, um Blinden die Kommunikation zu erleichtern. Die mit der Punktschrift versehenen sechs Tasten der Schreibmaschine ergaben, in verschiedenen Varianten gleichzeitig gedrückt, alle Buchstaben des Alphabetes. Dazu besaß die Maschine eine Leertaste.

Peter Mitterhofer war einer der bedeutsamsten Erfinder der Schreibmaschinen. Er entwickelte in der Zeit von 1864 bis 1869 fünf Schreibmaschinenmodelle – aus Holz –, die heute als Prototypen der Typenhebelmaschine gelten. Bei Typenhebelmaschinen sind die Typen auf einzelnen Hebeln angebracht. Mit dem fünften Modell machte er sich im Dezember 1869 von seinem Heimatort Partschins, zu Fuß auf den Weg nach Wien. Hier bat er bei einem Majestätsbesuch den Kaiser um eine Subvention oder einen Ankauf der Modelle. Dem Ankauf wurde stattgegeben und er bekam 150 Gulden. Doch die Modelle landeten in der Modellsammlung des Polytechnischen Instituts Wien mit der Bemerkung, dass eine eigentliche Anwendung dieses Apparates wohl nicht zu erwarten sei.

Am 23. Juni 1868 erhielten Christopher Latham Sholes und Carlos Glidden dann ein Patent auf die erste brauchbare Schreibmaschine – diesmal aus Metall. Das Besondere war die Anordnung der Buchstaben auf der Tastatur. Die am häufigsten benutzen Buchstaben wurden hier extra weit voneinander entfernt angeordnet, sodass sich die Typen der Maschine beim schnellen Schreiben nicht verhaken. Auch die Computertastatur, die wir heute kennen, ist nach diesem Schema angeordnet.

Ab dem Jahr 1873 war die Schreibmaschine kaum mehr aus den Büros wegzudenken, 1890 verkaufte Remington bereits 65.000 Schreibmaschinen. Mit der Zeit wurde die Arbeit von Stenographen und Maschinenschreibern zunehmend von Frauen übernommen. 1870 lag der Frauenanteil noch bei 4,5 Prozent und 1930 schon bei 95,6 Prozent. Durch neue Ideen und fortschreitende Technologie konnten die Schreibmaschinen weiterentwickelt werden. Sie sahen zum Ende der Schreibmaschinen-Ära fast aus wie Computer. Nichtdestotrotz wurden sie 2003 aus dem Verbraucherindex gestrichen und die Computer übernahmen ihren Platz.

Die Entwicklung des PCs

Die Geschichte des Personal Computer, abgekürzt PC, begann im Januar 1975, obwohl es bereits ab 1971 mit der Erfindung des Microprozessors möglich gewesen wäre einen Mikrocomputer in größerer Stückzahl herzustellen. Das Problem: Keiner der etablierten Computerhersteller sah einen Sinn darin, Computer für den persönlichen Gebrauch zu entwickeln.

Als die Zeitschrift „Popular Electronics“, in ihrer Januarausgabe 1975 den ersten PC mit dem Namen „Altair 8800“ als Bausatz für 397 Dollar vorstellte, gingen innerhalb weniger Wochen tausende Bestellungen bei der Redaktion ein. Der PC wurde zum Großteil von Tüftlern bestellt, die ihn an ihre Bedürfnisse anpassten und durch die neu gegründeten „Garagenfirmen“ dem PC zu einem Durchbruch verhalfen.

Doch die nächste Generation von PCs wurde bereits fast komplett geliefert. Der Apple 2 konnte an einen Kassettenrekorder und Fernseher angeschlossen werden, alternativ gab es auch ein Diskettenlaufwerk und einen Monitor für den PC. Bei dem TRS-80 Model 1 und Commodore PET waren der Monitor bereits serienmäßig dabei. Während man sich in der Anfangsphase noch nicht sicher war, welche Zielgruppe mit diesem Produkt angesprochen werden sollte, wurde nach kurzer Zeit schnell klar, dass Privatpersonen und kleinere Unternehmen die Abnehmer werden würden.

Zunächst gab es nur Basic Programme wie Wordstar, das ein Schreibprogramm war. Vor Ende der 80er Jahre entstanden dann viele verschiedene Bürocomputer-Systeme, die allerdings alle inkompatibel zueinander waren. Das änderte sich ab Ende der 1980er und so gab es nun PC-Kompatible also Betriebssysteme, die kompatibel zum Betriebssystem zu MS-DOS und später dann Windows waren. Apple konnte sich durch die Entwicklung des Mac1 ebenfalls eine Nische im Markt bewahren. Ab 1983 wurden die PCs stetig weiterentwickelt und mit neuen Betriebssystemen ausgestattet; bis hin zum heutigen Stand von Windows 11. Doch seien Sie sich sicher – das ist noch lange nicht das Ende der PCs.

Alter Arbeitsplatz ausgestattet mit einem PC

Moderner Arbeitsplatz mit einem Laptop, verbunden mit einem Curved Display

Der Laptop – vom Koloss zum kleinen Bürohelfer

Der erste Mikrocomputer, der sage und schreibe fast 25 Kilogramm wog und nicht im normalen Handel erhältlich war, wurde 1975 entwickelt. In der einfachsten Ausstattung kostete er 9.000 Dollar. Mit dem IBM 5100 war er der Grundstein für die Idee des mobilen Computers. Der Osborne 1, der 1981 auf den Markt kam, war der erste tatsächlich tragbare Computer der Welt. Er wog elf Kilogramm, ließ sich zusammenklappen und in einem grauen Koffer herumtragen. Der Osborne 1 hatte einen fünf Zoll Röhrenmonitor und konnte für den Normalverbraucher für 1.795 Dollar erworben werden. Das erste Gerät, das man jedoch wirklich als Laptop bezeichnen konnte, war der „Grid Compass 1100“, der lediglich fünf Kilogramm wog und mit einem Intel 8086-Prozessor lief. Der Laptop wurde hauptsachlich von der NASA genutzt, da er zu einem Preis zwischen 8.000 und10.000 Dollar verkauft wurde.

Richtig einsatzbereit, auch für den privaten Nutzer, waren die Laptops erst ab 1986, als der T3100 von Toshiba veröffentlicht wurde. Er hatte einen Glasplasma-Bildschirm, ein Gewicht von 2,5 kg, eine 20 MB Festplatte und einen Arbeitsspeicher von 1 MB. Durch diesen Durchbruch ging es stetig Berg auf, die Laptops entwickelten sich weiter. Der erste Laptop mit Farbdisplay kam 1992 auf den Markt und nur zwei Jahre später entwickelte Intel einen Prozessor, der extra für Laptops gebaut wurde, um noch bequemer an ihm zu arbeiten. Durch den Prozessor verbrauchte er weniger Strom und produzierte weniger Hitze.

Gerade in der Corona-Zeit haben die Laptops einen erneuten Boom erlebt. Viele Menschen mussten von zuhause aus arbeiten und auch die Kinder wurden zuhause unterrichtet. Das hat den Markt stark verändert, die Menschen möchten nun dieselbe Qualität, die sie von ihren Smartphones kennen auch bei ihren Laptops sehen. Gerade die Kameras, die früher eher weniger interessant waren, sind heute ein wichtiger Aspekt der Kaufentscheidung geworden.

Wagen wir einen kleinen Blick in die Zukunft: Bereits jetzt gibt es schon neue innovative Ideen und Konzepte, um Laptops noch attraktiver für den Käufer zu gestalten. So zum Beispiel ganz nach dem Motto, kleiner Laptop mit großem Bildschirm. Statt Bildschirm und Tastatur ist das Gerät mit nur einem großen, durchgehenden, biegsamen Bildschirm ausgestattet.

Lenovo ThinkPad Tablet 2

Lenovo ThinkPad X1

IT-Historie: Das Internet – der Beginn eines neuen Zeitalters

Ein geheimes Projekt namens „Arpanet“

Die Geschichte des Internets geht auf die Idee zurück, Computer miteinander zu vernetzen, um den wissenschaftlichen Austausch voranzubringen. Geplant war die Vernetzung von vier Universitäten in den USA durch das sogenannte „Arpanet“. Das zunächst streng geheime Projekt startete am 30. August 1969 an der Universität Los Angeles, wo der erste Knotenpunkt installiert wurde. Als Knotenpunkte bezeichnete man die einzelnen Standorte, die sich vernetzten, um untereinander kommunizieren zu können. Am 1. Oktober wurde der zweite Knotenpunkt in Stanford eingerichtet. Es dauerte noch bis Dezember, bis die anderen zwei Knotenpunkte ebenfalls angeschlossen wurden. Obwohl nach dem Start des Arpanet 1969 schrittweise zusätzliche Knotenpunkte hinzukamen, dauerte es noch drei weitere Jahre, bis sich das Wachstum wesentlich beschleunigte. Es wurde dann 1971 der Öffentlichkeit vorgestellt. Erst nach Ende des kalten Krieges konnte das Arpanet dann öffentlich genutzt werden, blieb zunächst jedoch in den USA.

Die Entstehung der E-Mail-Adresse

Im Jahr 1971 präsentierte der Informatiker Raymond Tomlinson ein Programm, mit dem sich Nachrichten über das Netz übertragen ließen. Um die Adressdaten zu unterscheiden, verwendete er ein Zeichen, das bereits auf jeder Tastatur vorhanden war, da es in der Buchhaltung als Synonym für „zu(m Preis von)“ genutzt wurde. Tomlinson entschloss sich, die Bedeutung des „@“ räumlich zusehen, so entstand das @-Symbol als Zeichen, dass die Nachricht „zu“ einem Empfänger gesendet wurde. Die erste E-Mail-Adresse lautete „tomlinson@bbntenexa“. Erst im Jahr 1984 wurde in Deutschland die erste E-Mail empfangen, sie wurde aus den USA einen Tag zuvor verschickt. Als in den 90er Jahren das Internet für bereite Masse zugänglich war, ging 1996 der erste Webmail-Anbieter online. Schon damals hatten sich bis zum Jahresende mehr als eine Millionen Nutzer registriert.

Die Anfänge des WLAN

Das ALOHA-Netzwerk der Universität Hawaii bildete 1971 den Anfang des WLAN. Das ALOHA-Netzwerk sollte die Computer der Universität mit denen der Nebenstellen verknüpfen. Dies sollte nicht etwa durch Kabel, sondern durch Funk geschehen. Es ging 1971 an den Start und wurde ein Jahr später an das Arpanet angeschlossen. Durch das ALOHA-Netzwerk wurde der Grundstein für das spätere WLAN gelegt.

Ein ebenfalls wichtiger Meilenstein für die lokalen Netze war 1973 als das Palo Alto Research Center (kurz PARC) das „Ethernet“ und „TCP/IP“ entwickelten. Das Transmission Control Protocol (TCP) legte die Ende-zu-Ende-Kommunikation von Endgeräten fest und forderte fehlerhafte oder verlorengegangene Pakete neu an. Das Internet Protocol (IP) sorgte für den richtigen Weg durch das Internet. Dadurch wurde der Datenaustausch weltweit möglich. Bei dem Ethernet wurde von PARC festgelegt, mit welcher Hardware der Datenaustausch in lokalen Netzen stattfinden sollte. Auch der Ablauf der Kommunikation, die Identifizierung der Kommunikationspartner und die Strukturierung von Bitfolgen wurden festgelegt und erleichterten die nächsten Entwicklungen. Der Datenaustausch beim Ethernet funktionierte über die Punkt-zu-Punkt-Verbindung und beinhaltete auch ein Prüfverfahren zur Erkennung von Fehlern. Es dauerte etwa fünf weitere Jahre, bis das Ethernet auch für lokale Netze, also für LAN, weltweit standardisiert wurde.

Das World Wide Web

Der Physiker und Informatiker Tim Berners-Lee war frustriert über die Schwierigkeit beim Auffinden und Austauschen von Forschungsergebnissen. Daraufhin erstellte er 1989 ein digitales Hypertextsystem, also ein Geflecht aus digitalen Seiten, die er durch „Links“ miteinander verknüpfte. Er nannte es das World Wide Web, kurz WWW. Es bestand die Möglichkeit, mit nur einem Mausklick an gänzlich neue Informationen zu gelangen. 1991 wurde das WWW dann offiziell freigegeben und später auch mit dem Internet verbunden. Ab diesem Zeitpunkt entstanden auch die ersten Ansätze für Dienstleistungen wie Streaming-Portale, Internet-Werbung und Online-Shops.

Nach dem Ethernet folgten 1995 auch die ersten deutschen Hochschulen und entwickelten das WAN (Wide Area Network), das sich anschließend über den gesamten Globus ausdehnte. Dies war die Geburtsstunde des Internet.

Ab Ende der 1990er-Jahre war es möglich geworden, per Software-as-a-Service (SaaS) Software und Daten zu nutzen, ohne dass sie auf dem eigenen Computer gespeichert werden mussten. Die entsprechenden Daten wurden dann mit einer Wolke symbolisiert. So entstand die Cloud, wie wir sie heute kennen.

Die Weiterentwicklung des WLAN

Um die 2000er kamen dann die ersten Laptops auf den Markt, die „Wi-Fi“ integriert hatten. Im Jahr 2004 hatte bereits das erste Flugzeug WLAN an Bord. Das WLAN etablierte sich zunehmen und die Anzahl an WLAN-Hotspots und -Nutzern, die es auch zuhause installieren ließen, stieg exponentiell an. Auch heute ist das WLAN ein wichtiger Teil unseres Lebens, auf das wir ungerne verzichten möchten. WLAN wird mittlerweile nicht nur in privaten Hauhalten genutzt, viele Unternehmen stellen ebenfalls WLAN zu Verfügung. Die kabellose Internetverbindung ermöglicht den Arbeitnehmern, Kunden und Partnern flexibel und ortsunabhängig an den Unternehmensstandorten zu arbeiten.

Falls Sie sich für eine Netzwerklösungen interessieren, schauen Sie gerne auf unserer Webseite vorbei. Die Ratiodata bietet Ihnen als Unternehmen ein umfassendes Portfolio zur Anbindung von mobilen und stationären Endgeräten ans Internet über die Vernetzung von Geschäftspartnern und Unternehmensstandorten bis hin zu komplexen Lösungen im Rechenzentrum.

IT-Historie: Die Entwicklung der Dokumentendigitalisierung

Die Geschichte des Microfilms und was sie mit Brieftauben zutun hat

Reisen wir zurück in den Deutsch-Französischen Krieg 1870/71, wo die Brieftauben trotz der Umstände versuchten, ihre Arbeit zu machen. Durch die Belagerung der Preußen war die postalische und telegrafische Kommunikation in Paris unterbrochen und es musste eine Lösung her. Der Vorschlag: Die Tauben mit Heißluftballonen aus der Stadt zu bringen in der Hoffnung sie würden ausgestattet mit einer Nachricht wieder zurückkehren. Doch die Menge an Informationen, die auf einzelne Papiere gebracht wurde, konnte unmöglich von den Tauben getragen werden.

Also probierten die Franzosen die Methode von René Dagron. Er schlug vor: Auf Filmmaterial verkleinerte Abbildungen von Dokumenten zu drucken, heute sind diese als Microfilme bekannt. Durch die Hilfe eines Chemikers, der die Dokumente fotografisch verkleinert hatte, war es möglich, dass eine Taube 20 Drucke gleichzeitig transportieren konnte. Die Methode funktionierte jedoch nur so lange, bis die Preußen es herausfanden und Falken sowie Habichte einsetzen. Insgesamt wurden über diesen Weg 150 000 Spulen Microfilm nach Paris geflogen.

Die Technologie wurde natürlich nicht nur in Paris verwendet. Sie fand allerdings erst in den frühen 1900er Jahren wieder Gehör, als die amerikanische Library of Congress mehr als drei Millionen Seiten von Büchern und Manuskripten mikrofilmierten. Die Microfilme ermöglichten es, größere Datenmengen zu speichern als die zuvor genutzten Lochkarten. Die Microfilme, die vorher von der Kamera verfilmt worden sind, wurden mit Hilfe von Entwicklungsautomaten entwickelt. Je nach Größe der Automaten konnten mehrere Filme gleichzeitig entwickelt werden.

Auch heute kommen die Microfilme noch zum Einsatz. Im privaten Bereich werden sie zwar eher selten verwendet, doch große Unternehmen nutzen Microfilme bis heute. Das liegt vor allem an ihrer sehr hohen Speicherkapazität von teilweise bis zu sechs Terabyte pro Band sowie ihrer Langlebigkeit.

Mikrofilm

Entwicklung der Mikrofilme

Wie die Scanner unsere Leben digitalisieren

Offiziell startete die Geschichte der Scanner 1951. Hier präsentierte der Elektroniker Rudolf Hell ein Gerät namens „Klischograph“, er sollte die Grundlage für einen Scanner schaffen. Es handelte sich um eine elektronisch gesteuerte Graviermaschine, die Druckformen für das Hochdruckverfahren herstellte. Hell stellte basierend auf dieser Technik 1958 den ersten Trommelscanner „Colorgraph“ vor. Er hatte anfänglich noch eine Scan-Zeit von mehreren Stunden und musste eine Stunde vor Einsatz angeschaltet werden.

Fünf Jahre später kam der „Chromagraph“ raus. Er war so erfolgreich, dass Hell nach nur einem Jahr 100 Geräte verkaufte. Kurze Zeit später wurde die Produktreihe mit dem Combi-Chromagraphen 288 ergänzt. Er war in der Lage Bilder und Texte auf einer Aufzeichnungswalze zu belichten. In den Jahren darauf kamen weitere Versionen des Chromagraphen auf den Markt. Im Jahr 1971 revolutionierte der Chromagraph DC 300 ER das Scannen nochmals. Durch eine bestimmte Lasertechnik wurde hier eine wesentlich größere Schärfe erreicht. Allerdings konnten sich wegen der hohen Investitionssumme für die Trommelscanner zu Beginn nur Großunternehmen einen solchen Scanner leisten.

In den 1990er-Jahren wurden die Trommelscanner schließlich von den Flachbrettscannern abgelöst. Sie bestehen aus einem Gehäuse, in dem eine Glasplatte angebracht ist. Unter der Glasplatte fährt beim Scannen eine Abtasteinheit her und erfasst das aufgelegte Dokument Zeilenweise. Diese Technologie wurde im Laufe der Zeit weiterentwickelt, heute sind reine Scanner eher weniger populär. Die meistgekauften Geräte in dem Sektor sind die Multifunktionsprinter, sie können Scannen, Kopieren und Drucken. Erst bei großen Mengen an Papier, das digitalisiert werden soll, werden Scanner eingesetzt. Sie ziehen das Papier automatisch vom Papierstapel und scannen es, hierbei schaffen die meisten Scanner mehr als 10 000 Blatt pro Stunde.

Sie sehen gerade einen Platzhalterinhalt von Youtube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Die Eroberung der Büros durch die Drucker

Laserstrahl- und Tintenstrahldrucker sind in Büros und Zuhause kaum noch wegzudenken. Der Grundstein für den heutigen Laserdrucker legte der Physiker Chester F. Carlson, der 1937 das Patent für die „Elektrophotographie“ anmeldete. Zuvor gab es kein maschinelles Kopierverfahren. Ende 1938 fertigte er mithilfe von Otto Kornei die erste Fotokopie an, mit Bärlappsamen auf einer Glasplatte. Die ersten Vollfarbdrucke wurden 1953 produziert. Im Laufe des Jahres 1973 optimierte Gray Starkweather die Laserstrahlen und es gelang ihm ein Druckbild herzustellen. Der erste tatsächliche Laserdrucker entstand. Allerdings kostete er noch zwischen 100.000 und 350.000 US-Dollar. Mit der Zeit konnten die Drucker immer bessere Qualität, Geschwindigkeit und Funktionen vorweisen. Sie wurden durch das erhöhte Angebot erschwinglicher, sodass sich auch Otto-Normalverbraucher einen Drucker leisten konnten.

Der erste Tintenstrahldrucker wurde zwischen 1963 und 1970 in den USA entwickelt, er trug den Namen „Teletype Inkronic“. Er funktioniert nur in Verbindung mit einem Monitor, außerdem schaffte der Drucker es noch nicht, die Farbe präzise auf dem Blatt zu platzieren. Der erste wirklich funktionsfähige Tintenstrahldrucker kam in den 1970er Jahren auf den Markt, dieser war allerdings nur für die Industrie zu gebrauchen, da er im Permanentbetrieb druckte. Tintenstrahldrucker, die für den Massenmarkt geeignet waren, kamen erst 1990 auf den Markt.

Durch die Digitalisierung und den Gedanken an das Klima wird zwar immer weniger gedruckt, doch zu einem Stillstand wird es höchstwahrscheinlich in den nächsten Jahren nicht kommen.

„Canon Fileprint 600“ Drucker und „Canonfile 250“ PC

Multifunktionsgerät

IT-Historie: Von mobiler Telefonie bis Mixed Reality

Die Erfindung des Mobiltelefons

Mit der Inbetriebnahme von Mobilfunknetzen nach GSM-Standard begann in Deutschland vor fast 30 Jahren der Siegeszug des Mobiltelefons. Mit GSM kam die SIM-Karte, mit der sich die Nutzer der Mobiletelefone gegenüber der Basisstation identifizieren und im Mobilfunknetz einbuchen konnten.  Seine Vorläufer waren jedoch bereits die Autotelefone, die in den 1950ern hauptsächlich Politiker und Großunternehmen nutzten, da sie mit einem Preis von 15.000 Mark noch sehr teuer waren.

Erst durch die Verbreitung des D1-Netzes im Jahr 1992 durch die Telekom gelang der Durchbruch für den Mobilfunk. Zwar gab es vorher auch Mobilfunknetze, diese waren jedoch weniger stabil und nur von geringer Reichweite. Zunächst kostete ein Mobiltelefon inklusive Mobilfunkvertrag noch zwischen 3.000 und 8.000 DM. Die hohen Preise für einen Mobilfunkvertrag regulierten sich allerdings mit Aufkommen neuer Anbieter schnell. Die Einführung von Prepaid-Karten zusammen mit günstigen Mobiltelefonen förderten die Begeisterung der Konsumenten nochmals. Seit dem ersten Markteintritt entwickelten sich die Mobiltelefone von schweren klobigen Geräten zu verhältnismäßig flachen Handys mit Touchscreen.

Smartphone – die Entwicklung zu einem mobilen Computer

Alles begann im Jahr 1992: Das IBM Simon kam auf den Markt. Das Smartphone machte es möglich, E-Mails und Faxe zu versenden, den Kalender sowie das Adressbuch zu verwalten und Spiele zu spielen. Zudem war es das erste Handy mit Touchscreen. Als Apple dann 2007 das erste iPhone mit eigenem iOS Betriebssystem verkaufte, war schnell klar, die Smartphones mit Tasten werden vom Markt verschwinden. Ein Jahr später kam schließlich das erste Smartphone mit dem Google Betriebssystem „Android“ auf dem Markt. Die Bedienung lief hier allerdings noch über eine Kombination aus Touchscreen und einer darunter liegenden Tastatur. Bei den Nachfolgermodellen verschwand die Tastatur schließlich vollkommen.

Nach dem Start von PlayStore und AppStore im Jahr 2008 war es den Nutzern möglich, zahlreiche Apps auf das Smartphone zu laden. Zuvor waren die Smartphones ausschließlich mit den vom Hersteller vorinstallierten Apps ausgestattet. Der Start beider Stores führte zu einem Milliardengeschäft und gilt mittlerweile als die beliebteste Art, Software anzubieten und zu verkaufen.

Vom „mobilen Telefon“ zum „Taschencomputer“- Nokia 6210, iPhone 3G, HP Pocket PC H1910.

Die Historie von Social Media

Heute sind soziale Medien kaum aus unserem Leben wegzudenken. Die Basis für die heutigen Sozialen Netzwerke legte die Einführung des Internets 1989. Kurz darauf – 1993 – ging der Webbaukasten Geocities online und war der Grundstein für den ersten Blog. Drei Jahre später wurde der erste Messaging-Dienst ICQ auf dem Markt veröffentlicht – er war zwar noch keine Social-Media-Plattform, konnte aber beinahe grenzenlosen Datenaustausch gewährleisten und aus einer Zeichenabfolge einen digitalen gelben Smiley erstellen.

Der Ursprung der ersten Social-Media-Plattform aber liegt bei MySpace im Jahr 2003. MySpace war die erste Plattform weltweit, die es ermöglichte, mit anderen zu kommunizieren sowie Bilder, Videos und Musik ins Netz zu laden. 2003 startete auch das deutsche Netzwerk „OpenBC“ – heute bekannt unter „XING“ –, das Ähnlichkeiten mit dem amerikanischen Netzwerk LinkedIn aufwies, welches ein knappes Dreivierteljahr früher entstand. Facebook, eines der am häufigsten genutzten Social-Media-Plattformen, wurde im Februar 2004 gegründet und ist inzwischen im Besitz einiger ebenso großen Plattformen wie Instagram. Im März 2006 startete schließlich der Blogging-Dienst Twitter, einige Jahre später, im Jahr 2009, startete die Plattform WhatsApp, die 2014 dann von Facebook übernommen wurde und mittlerweile mehr als zwei Milliarden Nutzer verzeichnet. Nach und nach kamen immer mehr Anbieter auf dem Markt, die es ermöglichten, jegliche Art von Content zu veröffentlichen. Heute verzeichnen Plattformen wie Facebook, Instagram und TikTok mehr als eine Milliarde Nutzer.

Mixed Reality – eine zweite Realität

Mixed Reality, also die Erweiterung der echten Welt durch eine vollständig virtuell erzeugte Welt, gilt als echte Trendtechnologie. Es wird davon ausgegangen, dass der Begriff „virtuelle Realität“ bereits 1987 in einem Roman erwähnt wurde. Seitdem ist er nicht mehr aus unserem Sprachgebrauch verschwunden. Der Begriff „Mixed Reality“ fand erstmals 1994 in dem Artikel „A Taxonomy of Mixed Reality“ Erwähnung.

Vor rund 10 Jahren wurde der Begriff durch neue Technologien wie die Microsoft HoloLens und andere Mixed-Reality-Headsets sehr geprägt. Die benötigte Hardware, um eine virtuelle Welt erzeugen zu können, kann man in zwei Kategorien aufteilen: holografische Geräte und immersive Geräte. Die holografischen Geräte platzieren digitale Gegenstände in der realen Umgebung. Durch die transparente Anzeige können die Nutzer trotz allem die reale Umgebung sehen. Die Verwendung von holografischen Geräten, wie der HoloLens, ist sehr fassentenreich. Sie wird beispielsweise bei Mechanikern eingesetzt, um virtuell in jede Ecke des Motors eines Autos zu schauen, ohne die Teile aus dem Auto bauen zu müssen.

Auch in der Medizin und in Hochschulen findet die Brille häufig Verwendung. Mit ihr können Medizinstudenten Operationen üben und den Körper studieren. Auch Ärzte können sich über diesen Weg auf schwierige oder seltene Operationen vorbereiten. Die immersiven Geräte ersetzen dagegen die gesamte Umgebung durch eine virtuelle Umgebung, die reale Welt wird hier durch ein lichtundurchlässiges Anzeigegerät ausgeblendet. Auch diese Art der Mixed Reality wird in der Industrie und im Gesundheitswesen verwendet. So können beispielsweise bestimmte Therapien mit den immersiven Geräten durchgeführt werden, um Angstzustände und Phobien zu bekämpfen. Auch im Bereich des Marketings finden sie häufig Gebrauch. Beispielsweise um den Kunden das Produkt näher zu bringen und eine virtuelle Demonstration des Produkts zu ermöglichen.

Mit der Microsoft HoloLens im Krankenhaus

Das bringt die Zukunft

Eins ist sehr wahrscheinlich: Social Media wird nicht so schnell aussterben. So zeigt die Plattform TikTok, dass mit dem richtigen Konzept eine Anwendung schnell große Erfolgszahlen schreiben kann.

Aber auch das Metaverse wird zunehmend populär. Zunächst ist es zwar ein Konzeption, welches noch einiges an Arbeitszeit kostet. Doch die Möglichkeit besteht trotz allem, in einigen Jahren eine zweite Welt, also eine digitale Alternative zu der realen Welt, zu erschaffen und sich in dieser zu bewegen. Auch Mixed Reality wird immer mehr in unseren Alltag eintauchen. Der Einsatz von Mixed-Reality-Headsets im Unternehmensalltag, um den Kollegen anderer Standorte Projekte zu präsentieren, Maschinen gemeinsam zu reparieren oder auch gemeinsam Produkte zu entwickeln, sind nur einige der Verwendungsmöglichkeiten. Auch Zuhause kann die Technologie vielseitig eingesetzt werden. Sei es, um das Hobby digital auszuüben oder seine Kontakte digital zu pflegen.

IT-Historie: Der Weg zur digitalen Kommunikation

Das Telefon – der Ursprung der digitalen Kommunikation

Die Geschichte des Telefons fand 1861 seine Anfänge. Phillip Reis, deutscher Physiker und Erfinder, entwickelte das erste funktionstüchtige Gerät. Er nannte es „Telephon“, abgeleitet von den altgriechischen Wörtern „tele“ (weit) und „phone“ (Stimme). Er verkaufte es weltweit als wissenschaftliches Demonstrationsobjekt. Als das „Telephone“ auch in den USA ankam, experimentierte der Schotte Alexander Graham Bell 1875 mit dem Gerät. Er beantragt das Patent und veröffentlichte kurz darauf seinen Prototypen. Einige Zeit später gründete er die „Bell Telephone Company“, heute „AT&T“. Sie ist noch heute eine der weltgrößten Telefonkonzerne.

Aber erst ab 1877 begann die einsatzfähige Telefonie in Deutschland zunächst mit einer Reichweite von sechs, dann 26 und zuletzt 61 km. Durch die Entwicklung des Kohlemikrofons und die Verbesserung des Hörers waren später auch Gespräche über größere Entfernung möglich. Für den Aufbau der Telefonverbindung wurde, bis 1955 das Mehrfrequenzwahlverfahren entwickelt wurde, die Handvermittlung durch das „Fräulein vom Amt“ eingesetzt.

Mit Aufkommen des Internets wurde 1995 die IP-Telefonie entwickelt und die Ausstattung des Telefons mit Funktionen wie die Anrufererkennung erweitert. Im Gegensatz zu den bis dato analogen Telefonanschlüssen, waren die IP-Anschlüsse an das Breitband gekoppelt. Die Breitband-Übertragungstechnik sorgte für eine bessere Sprachqualität und eine stabilere Verbindung. In den Folgejahren eroberten weitere Modelle den Markt – wie beispielsweise in den 1990er Jahren das Konferenztelefon. Die Lautsprecher und Raummikrofone ermöglichten Konferenzen mit vielen Teilnehmern von mehreren Standorten aus.

Schnurtelefon mit Wählscheibe

Die Anfänge der Fax-Geräte

Der erste öffentlich nutzbare Fernschreiber, wie das Faxgerät damals noch bekannt war, kam Ende der 70er Jahre in Deutschland auf den Markt. Zunächst wurde er bei der Bundespost eingesetzt, bis er Ende der 80er auch in den Büros immer mehr in Mode kam. Durch die Entwicklung von großen, sperrigen Geräten zu kleineren, handlichen Geräten rückten auch die privaten Haushalte in die Zielgruppe der Firmen. In der heutigen Zeit fristen Fax-Geräte nur noch ein Nischendasein. Sie wurden mit Aufkommen der E-Mail-Kommunikation weitestgehend bedeutungslos.

Multifunktionsgerät

E-Mailing – die neue Art der Kommunikation

Das Versenden der ersten E-Mail nach Deutschland geschah im Rahmen des Forschungsprojekts „Anschluss an internationale Rechennetze“. Sie wurde am 3. August 1984 empfangen, kam aus den USA und ging an einen Wissenschaftler an der Universität Karlsruhe. Da es aber in den 80er Jahren noch keine PCs gab, sondern nur Mehrbenutzersysteme, wurden die E-Mails nach dem Erstellen nicht direkt versendet, sondern zunächst auf einem Mailserver gesammelt und später verschickt. Außerdem – heute kaum noch vorstellbar – kostete es 20 Cent, E-Mails zu versenden.

Erst zu Beginn der 1990er wurde das Internet und somit auch das Versenden von E-Mails für private Nutzer geöffnet. Nach der Öffnung des Internets veränderte sich die Arbeitswelt und die private Kommunikation schlagartig und das Versenden von E-Mails wurde populär. Im Business-Bereich wächst auch heute noch die Zahl der gesendeten E-Mails um jährlich zehn Prozent. Im privaten Bereich hingegen sinkt sie stetig. Hier lösen neue Kommunikationsformen wie Social Media und Instant-Messaging-Dienste die E-Mail zunehmend ab.

Die Business-Messenger-Dienste

Zum Ende der 1990er Jahre gab es die ersten Messenger-Dienste wie den Chat-Dienst „IRC“. Hier konnten sich beliebig viele in einem sogenannten Channel versammeln und austauschen. Mit der Zeit wurden die modernen Messenger-Dienste wie „Skype for Business“ und „Microsoft Teams“ in der Unternehmenswelt immer beliebter und sind im Zeitalter der digitalen Kommunikation kaum noch wegzudenken. Denn sie machen es möglich, dass Teamarbeit auch digital stattfinden kann, wodurch die Effizienz einzelner Arbeitsprozesse gesteigert wird.

Dank den Messenger-Diensten können heute problemlos Audio-, Video,- und Webkonferenzen innerhalb oder außerhalb einer Organisation abgehalten werden. Einzel- und Gruppenchats sowie das Teilen von Dateien sind ebenfalls kein Problem, da durch die Programme die Informationssicherheit auf Unternehmensniveau gewährleistet wird.

Videokonferenz

Internes Meeting – hybrid

Ein Blick in die Zukunft

Die dargestellten Kommunikationskanäle sind bis heute im Business-Umfeld im täglichen Gebrauch, natürlich werden sie stetig verbessert und es kommen neue, noch schlankere und schnellere Versionen auf den Markt. Doch mittlerweile kommunizieren wir nicht nur mit Menschen über digitale Kanäle, sondern auch mit zahlreichen Sprachassistenten, die unsere Einkäufe tätigen, das Licht anschalten oder uns Geschichten vorlesen und Witze erzählen. Aber auch in den Unternehmen wird immer mehr auf Robotik, Digital Human, Künstliche Intelligenz und Virtual Reality gesetzt. Über kurz oder lang wird dies schlussendlich dazu führen, dass sich unsere zwischenmenschliche Kommunikation verändert.

IT-Historie: Der Mikrofilm als innovatives Speichermedium

Die technischen Vorteile des Mikrofilms trugen wesentlich zur Erfolgsgeschichte der Ratiodata bei. In einer kleinen Historie blicken wir zurück.

Den 40. Geburtstag der CD am 17. August 1982 zum Anlass nehmend, blicken wir auf die Speicherung von Daten und die Weiterentwicklung der Medien über die letzten Jahrzehnte. Denn selbstverständlich war die CD weder das erste, noch das letzte Medium, um Daten zu archivieren. Unser besonderer Fokus – aufgrund einer der Vorgängergesellschaften der Ratiodata, der GAM Gesellschaft für angewandte Mikrografie mbH – liegt dabei natürlich auf dem Mikrofilm.

Doch von vorne: Einen Grundstein für maschinelle Speichermedien legten im 18. und 19. Jahrhundert die Lochkarten. Als Erfinder der Lochkarte gilt Herman Hollerith, der später die Computer-Firma IBM gründete. Die Speicherung erfolgte über Muster, die in Karten gestanzt wurden, um so die maschinelle Verarbeitung von Informationen zu ermöglichen.

Parallel erfand und patentierte René Dagron 1859 den Mikrofilm. Bereits während des Deutsch-Französischen Krieges erwies sich dieser als äußerst nützlich. Mithilfe von Mikrofilmen, die von Brieftauben überbracht wurden, konnten Nachrichten und Daten übermittelt werden.

Filmrollen und Mikrofiche (v.l.) als zwei Arten von Mikroformen aus dem Archiv der GAM.

Mit den Jahren entstanden unterschiedliche Arten der Mikrografie-Speichermedien. So existierte zum einen der Rollfilm, der im 16-mm-Format Schriftgut nacheinander abbildete, währenddessen Filme im 35mm-Format für Aufnahmen von Zeichnungen verwendet wurden. Der Mikrofiche hingegen hielt die Daten auf einem DIN A6-Format oder einem Sonderformat von 18 x 24 cm reihen- und spaltenweise fest. Bis zu 420 DIN A4-Seiten ließen sich auf einem einzigen Fiche festhalten. Auch die Lochkarte fand in der Kombination mit einem Mikrofilm ihren Einsatz. Dabei wurde in die Lochkarte eine Mikrofilm-Abbildung von beispielsweise Zeichnungen eingeklebt und mit einem Code ersehen. Mit entsprechenden Geräten ermöglichte der Code ein schnelles Auffinden des gesuchten Dokuments.

Ein Beispiel für eine Lochkarte mit Mikrofilm aus dem Archiv der GAM

Unter dem Überbegriff Mikroform versteht man einerseits auf Filmmaterial verkleinerte analoge Abbildungen von gedruckten Vorlagen sowie andererseits direkt auf das Medium geschriebene digitale Informationen. Letzteres Verfahren wurde unter der Bezeichnung COM (Computer Output on Microfilm bekannt.

Die COM-Technik wurde insbesondere für die Archivierung und Revision eingesetzt. Mit Mikrofilm-Lesegeräten konnten die Daten später wieder vergrößert und damit lesbar gemacht werden.

Ein Lesegerät für Mikrofiche aus dem Archiv der GAM

Der Lochkarte und dem Mikrofilm folgten beispielsweise neben der Festplatte (1956), der Diskette (1969), der SSD Solid-State-Disk – kurz SSD –, der CD und dem USB-Stick (ab 2000) auch die SD-Karte (2001) als Speichermedien. Heute werden Daten in Massen jedoch vor allem über Cloud-Systemen auf zentralen Servern gespeichert, diese Speicherungsform erlebt seit 2006 ihren immer größeren Durchbruch.

Für die kommenden Wochen haben wir für Sie weitere Artikel zur IT-Historie vorbereitet, die nach und nach in diesem Blog veröffentlicht werden. Gemeinsam mit Ihnen möchten wir einen Blick auf die Geschichte der technologischen Errungenschaften u.a. zu den Themen digitale Kommunikation, Dokumentendigitalisierung, Arbeitsplatz-Hardware und Bankentechnologien sowie Automatisierung und KI werfen.