Skip to main content

IT-Historie: Automatisierung und KI

Weshalb war die Automatisierung und die Künstliche Intelligenz (KI) eigentlich schon immer ein Thema und wie wird sich dies auf unsere Zukunft auswirken? Welche Chancen bestehen insbesondere in der IT für diese Technologien?

 

Von PC-Programmen bis zur App-Entwicklung

In den 1940er Jahren, ungefähr 100 Jahre bevor die erste programmierbare Rechenmaschine konstruiert wurde, schrieb Ada Lovelace das erste Computerprogramm der Welt. In ihrer Lebenszeit bekam sie dafür allerdings kaum Anerkennung. Heute dagegen wird ihr Werk als revolutionär bezeichnet. In den 1970er Jahren wurde sogar die Computersprache ADA nach ihr benannt.

Erst in den späten 1950er Jahren wurde der Begriff „Software“ eingeführt. In dieser Zeit wurden zahlreiche Programmiersoftwares geschaffen, sie waren allerdings zum Großteil noch nicht kommerziell erhältlich. Die Computernutzer mussten ihre Software meist selbst programmieren, dabei konnten sie sie spezifisch auf ihre Bedürfnisse anpassen. Als nach einiger Zeit Computer auch für Privatpersonen erhältlich waren, wurde Software dann sehr viel populärer. Da die meisten Personen jedoch keine Programmiersprache konnten, wurde das Betriebssystem entwickelt, das mit einer spezialisierten Software betrieben wurde. Eines der frühsten Betriebssysteme war MS-DOS. Zwischen den 60er und 70er Jahren war es sehr beliebt, Software in einem Store zu kaufen und die verschiedensten Programme auf den Computer zu laden. Als Festplatten in einem PC Standard wurden, konnte sogar schon Software installiert werden, bevor die PCs überhaupt den Hersteller verließen.

Im Jahr 1992 wurde dann das erste Smartphone entwickelt, das einen Kalender und ein Adressbuch besaß. Außerdem konnte es E-Mails und Faxe verschicken. Allerdings hatten die Nutzer erst nach der Veröffentlichung des App Stores und Google Play Stores, 2008, die Möglichkeit sich zahlreiche Apps selbst herunterzuladen. Weitere Informationen zu der Entstehung von Smartphones und Apps finden Sie hier.

Der Ursprung der Automation

Bereits im ersten Jahrhundert nach Christus in Ägypten entstanden die ersten Ideen zur Automatisierung, so schuf ein Mathematiker und Ingenieur den ersten Verkaufsautomaten. Er schenkte Milch und Wein aus. Aber wie genau sich die Automatisierung geschichtlich weiterentwickelt hat, können die Historiker nur erahnen. Sie sind sich aber sicher, dass die relevantesten Schritte in der Geschichte während der ersten industriellen Revolution Ende der 1800er stattfanden. Hier wurden dampfkraftgetriebene Webmaschinen mechanisiert, was zu einer enormen Produktionssteigerung führte, aber gleichzeitig auch die ersten Konflikte über die Verdrängung der Menschen durch die Maschinen entstehen ließ.

Als die Elektrizität erfunden wurde, trieb das die Automatisierung nochmals voran und führte dazu, dass 1913 Henry Ford die erste Fließbandfertigung für das Automodell „Tin-Lizzy“ in Betrieb nahm. Der erste Industrieroboter wurde 1956 erfunden. Im Lauf der 70er und 80er Jahre nahm die Robotisierung von Automobilfabriken immer weiter Fahrt auf und die Roboter übernahmen weitere Aufgaben, die zuvor der Mensch ausübte. Seit der Einführung des PCs erhielt die Automatisierung auch im IT-Bereich Einzug. Sie machte es möglich, bestimmte Daten automatisch zu erfassen, auszuwerten und auszuführen.

Menschliche und Roboter Hand

Die Entstehung der KI und ihre Chancen für die IT

Bereits im Jahr 1936 wurde der Grundstein für die Künstliche Intelligenz geschaffen. Alan Turing, ein britischer Mathematiker, stellte die Theorie auf, dass eine Rechenmaschine in der Lage wäre, kognitive Prozesse auszuführen. Unter der Bedingung, dass sie sich in Einzelteile zerlegen und durch einen Algorithmus darstellen lassen. Der Begriff „Künstliche Intelligenz“, kurz „KI“, entstand im Sommer 1956 als der Programmierer John McCarthy auf einer Konferenz am Dartmouth College den Begriff KI vorstellte. Er soll beschreiben, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. 1966 entstand schließlich der erste Chatbot mit dem Namen „ELIZA“. Die KI gelangte erstmals 1972 auch in die Medizin und diente zur Unterstützung bei Diagnosen und Therapien. In den weiteren Jahren wurde die KI stetig weiterentwickelt: Sie lernte sprechen, schlug den Weltmeister im Schach und brachte sich durch Sprachassistenten in unseren Alltag ein. Trotz allem steht die Entwicklung der KI jedoch noch weit am Anfang. Sie muss zuverlässiger und sicherer gegen Manipulation werden, um sie in zahlreichen anderen Bereichen einsetzen zu können.

Die KI kann in Sekunden Entscheidungen treffen, wo der Mensch mehrere Minuten benötigt. Darüber hinaus arbeitet sie nach festen Regeln und ist somit nicht beeinflussbar, weshalb sie für die Auswertung von Daten oder Automation von Prozessen besonders gut geeignet ist. Künstliche Intelligenz kann zudem sehr flexibel eingesetzt und an die Bedürfnisse eines Unternehmens angepasst werden. Durch die zunehmende Automatisierung profitieren auch IT-Abteilungen. Durch Prozesse, die von künstlichen Intelligenzen übernommen werden, können Betriebskosten gespart und Freiräume geschaffen werden, um die Mitarbeiter*innen in andere wichtige Projekte zu integrieren, anstatt alltäglich wiederkehrende Aufgaben abzuarbeiten.

Der IT-Sektor spielt im Bereich der Cybersicherheit in Verbindung mit KI eine immer größer werdende Rolle. Bereits jetzt existieren neben den klassischen Softwareapplikationen zur Identifikation von Viren und anderen Bedrohungen einige Lösungen, die zur Verteidigung der Daten auf Algorithmen aus dem Bereich der KI zurückgreifen. Allerdings birgt das auch Gefahren, da die intelligenten Algorithmen auch für Angriffe genutzt werden können.

Ein Blick in die Zukunft

Die Künstliche Intelligenz wird durch die nötige fortschreitende Digitalisierung als Schlüsseltechnologie für die Gesellschaft, Wirtschaft und Wissenschaft angesehen. Sie wird einen immer größeren Einfluss auf unser Leben haben und in einigen Jahren unentbehrlich sein. Bereits heute wird das autonome Fahren erforscht und in Teilen bereits in Automobilen zur Anwendung gebracht.

Auch das Metaverse wird in naher Zukunft Teil unseres Lebens sein. So erhoffen es sich zumindest die Unternehmen, die seit zahlreichen Jahren an diesem Projekt arbeiten. Das Metaverse umfasst im Gegensatz zum „Universe“ sowohl die digitale als auch physische Welt. Es soll eine eigene Wirtschaft abbilden können, die parallel in Echtzeit zur physischen Welt abläuft. Im Metaverse soll man ebenfalls Produkte, Waren und Dienstleistungen kaufen und ausprobieren können. Häufig wird es als neue Evolutionsstufe des Internets gesehen, das sich von den zweidimensionalen Displays lösen will und das Internet vollkommen erlebbar macht. Mit einigen der bereits vorhandenen Technologien wie Virtual Reality oder Augmented Reality kann die reale Welt bereits jetzt schon mit der digitalen Welt verzahnt werden.

Matthew Ball veröffentlichte im Jahr 2020 einen Essay, worin er das Metaverse beschreibt. Zuckerberg erklärte diesen sogar zur Pflichtlektüre für seine Angestellten. In dem Essay definiert er das Metaverse über sieben Merkmale: Es hat kein Ende, keine Pause und auch keinen Reset. Es ist eine erweiterte Realität, weshalb es in Echtzeit stattfindet. Die Nutzerzahl des Metaverse ist unbegrenzt, trotz dessen erfährt jeder User das Gefühl ein Individuum zu sein. Des Weiteren hat es eine funktionierende Wirtschaft wie im echten Leben. Außerdem soll sich das Metaverse aus den Inhalten und Erfahrungen speisen, die von allen kreiert werden, und eine uneingeschränkte Interoperabilität zwischen einzelnen Technologien gewährleisten.