top of page

Suchergebnisse

1893 Ergebnisse gefunden mit einer leeren Suche

  • Diese Münchner wollen mit fliegenden Windkraftanlagen die Energiewende retten | 1E9.community

    Ein Start-up in München arbeitet an Drohnen, die die Nutzung von Windenergie effektiver und billiger machen sollen. Die fliegenden... 15. Oktober 2021 Diese Münchner wollen mit fliegenden Windkraftanlagen die Energiewende retten Ein Start-up in München arbeitet an Drohnen, die die Nutzung von Windenergie effektiver und billiger machen sollen. Die fliegenden Windturbinen sollen viele Einwände gegen klassische Windräder nichtig machen. Das Team von Kitekraft hofft, auch eine Waffe im Kampf gegen den Klimawandel zu liefern. Von Michael Förtsch Im Süden von München liegt Otterfing. Es ist eine typisch bayerische Gemeinde mit rund 5.000 Einwohnern. Es gibt neben einigen Reihen von Einfamilienhäusern, einem Bahnhof und mehreren Bauernhöfen vor allem breite Felder, große Wiesen und jede Menge Wald. Genau aus diesem Grund fuhren Florian Bauer und seine Mitstreiter im August 2020 erstmals mit einem Kleintransporter von München nach Otterfing. Und seitdem immer wieder. Denn auf einer weitläufigen Wiese fernab der Häuser und Hochspannungsmasten haben sie genug Platz, um eine neuartige Windkraftanlage zu erproben. Den Platz brauchen sie auch. Es handelt sich dabei schließlich nicht um ein Windrad, sondern um einen stromerzeugenden Flugdrachen. „Der Landwirt, dem die Wiese gehört, findet gut, was wir da machen“, sagt Florian Bauer, einer der Gründer des Münchner Start-ups Kitekraft . Der Flugdrachen, den die Absolventen der TU München entwickeln, sieht nicht wirklich wie ein klassischer Drachen aus. Er erinnert viel eher an ein Doppeldecker-Flugzeug aus dem Ersten Weltkrieg, das mit acht kleinen Propellern ausgestattet ist. Zweieinhalb Meter misst der aktuelle Prototyp. Und auch Bauer sagt, dass dieser Kite eigentlich weniger ein Drachen, sondern eher „eine größere und etwas kompliziertere Drohne“ ist. Aber eben eine Drohne, die Strom erzeugen soll – viel Strom. Das Konzept nennt sich Drag oder Crosswind Power Kites und ist grundsätzlich ziemlich simpel. Herrscht windiges Wetter steigt die Drohne mit ihren Propellern in die Höhe und setzt sich direkt in die Luftströmung. Sie hängt dabei an einem Zugseil, das sie festhält und dafür sorgt, dass sie in stabilen Kurven umhergetrieben wird, die eine liegende „8“ formen. Dann funktionieren die kleinen Propeller wie die Flügel eines klassischen Windrades. Sie werden vom Wind gedreht und treiben kleine Generatoren an. Der gewonnene Strom wird über eine Leitung im Zugkabel an eine Bodenstation gesendet und dort ins Netz oder in Batteriespeicher gespeist. Scheitern als Chance? Das Unternehmen Kitekraft ist noch ziemlich jung und das Team im Kern vier Personen stark – dazu kommen derzeit immer wieder mehrere Studenten, die mithelfen und mitforschen. „Wir haben uns 2018 zusammengefunden“, sagt Florian Bauer. Da schrieb er gerade seine Masterarbeit über die mögliche Entwicklung eines funktionalen Flugdrachenkraftwerks. Die Ingenieure André Frirdich und Christoph Drexler waren zu diesem Zeitpunkt seine Studenten, die an Teilaspekten wie Flügel- und Propelleroptimierung arbeiteten. „Wir haben irgendwann gesprochen“, sagt Bauer. „Und ich fragte, ob sie Lust hätten, das vielleicht weiterzumachen.“ Wenig später gründeten sie gemeinsam mit dem Erneuerbare-Energien-Experte Maximilian Inesee das Start-up Kitekraft. Der aktuelle Prototyp misst zweieinhalb Meter und wird immer wieder auf einer Wiese bei einer Gemeinde nahe München getestet. Derzeit sucht das Team nach Standorten, an denen es zukünftige Prototypen bereits einem dauerhaften Probelauf unterziehen kann. ©Kitekraft Trotz des kleinen Teams, glaubt Bauer, werde Kitekraft erfolgreich sein – und das, obschon erst vor Kurzem ein weitaus größeres Entwicklerteam an der gleichen Idee scheiterte. Im Februar 2020 meldete die Tech-Presse nämlich, dass das ursprünglich 2006 von Kitesurfern gegründete, von Google finanzierte und 2013 vom Google-Labor X aufgenommene Start-up Makani „aufgegeben“ hat . Das Unternehmen hatte bis dahin fast 14 Jahre und mehrere Millionen Euro investiert, um fliegende Windkraftanlagen in eine alltagstaugliche Stromerzeugungstechnologie umzusetzen. Die Gründe für den sogenannten „Abschluss der Reise von Makani als Unternehmen“? Nach mehreren Abstürzen der Drachen urteilte die Google-Mutter Alphabet, dass „der Weg zur Kommerzialisierung länger und risikoreicher ist als gehofft“. Das sah das Team von Kitekraft aber nicht als schlechtes Omen, sondern eher als Chance und Grund zum Optimismus. Denn mit der Schließung des Google-Start-ups wurden unter dem Titel The Energy Kite Collection über 1.000 Seiten an technischen Dokumenten, unzählige Testdaten, Software-Code und Dutzende an Videos freigeben – in großen Teilen als Open Source. "[Die Dokumente von Makani] waren echt eine Schatztruhe für uns." - Florian Bauer „[Die Dokumente von Makani] waren echt eine Schatztruhe für uns“, meint Bauer. Die Truppe konnte die Herangehensweisen vergleichen und Inspirationen ausmachen. Aber vor allem: Kitekraft konnte sehen, wo die Probleme von Makani lagen. Das wohl größte davon: Die Makani-Drohnen wurden beim Schweben instabil. „Sie konnten sich nicht um die vertikale Achse wegdrehen, wenn das Seil nicht angespannt ist“, sagt Bauer. Dadurch konnten die Drohnen unvermittelt wegziehen , außer Kontrolle geraten und abstürzen. Genau diese Situationen können immer wieder auftreten, wenn die Windgeschwindigkeit ansteigt und dann abfällt. Aber: „Das ist ein Problem, das wir komplett gelöst haben, ohne dass wir zuvor wussten, dass Google damit ein Problem hatte“, sagt Bauer. Den Unterschied, erklärt der Gründer, machen die Propeller. Die sitzen bei Kitekraft nicht abgesetzt über, sondern direkt vor den Flügeln und sorgen damit für einen Abluftstrom, der mit kleinen Stellklappen genutzt werden kann, um den Flugdrachen gezielt zu drehen und zu stabilisieren. „Das ist die einfache Erklärung“, scherzt Bauer. Im Detail passiere da noch mehr und deutlich Komplexeres, was die Flugmechanik anbetrifft. Dass und wie gut die Drohne funktioniert, testet das Team von Kitekraft nicht nur auf der grünen Wiese in Otterfing. Regelmäßig werden die Hard- und die Software auch in der eigenen Maschinenhalle und einem Luftkanal großen und kleinen Tests unterzogen. Schließlich muss nicht nur die Konstruktion der Drohne stimmig sein. „Die Arbeit und die Intelligenz steckt letztlich auch in der Software, in der Flugregelung, in den Sensoren, in der Aktuatorik“, sagt Bauer. Letztlich müsse das gesamte System dauerhaft zuverlässig und nachvollziehbar funktionieren. Und das auch noch nach 20 Jahren – so lange sollen die Drohnen mindestens halten. Das Team von Kitekraft ist klein, aber glaubt, dass es da erfolgreich sein wird, wo Google einst mit Makani gescheitert ist. Bereits 2024 will die Truppe soweit sein, erste Flugdrachen für die professionelle Nutzung zu fertigen. ©Kitekraft Bei der aktuellen und damit „mindestens dritten Generation“ des Kites, der theoretisch 20 Kilowatt an Leistung liefert, sei vieles noch nicht ideal. Einzelne Elemente wie die Propeller wären beispielsweise „von der Stange“. Wenn der kleine Flugdrachen aber in Zukunft so gut funktioniert wie gewünscht, wollen die Kitekraft-Entwickler den Maßstab in zwei Schritten vergrößern. Zunächst auf fünf Meter. Und dann auf rund zehn Meter. Dieser große Drache soll an die 100 Kilowatt an Leistung bringen – so viel wie eine Windturbine mit einem Rotor von 21 Metern Durchmesser oder ein Solarpark mit 400 250-Watt-Modulen. Für den Bau eines solchen Drachens würde, schätzt der Start-up-Gründer Bauer, zehnmal weniger Material benötigt als für den Bau eines klassischen Windrads, das die gleiche Energieausbeute hat. Außerdem wären die Drachen im Gegensatz zu Windrädern aus der Entfernung nahezu unsichtbar. Sie wären Punkte am Himmel – nicht mehr. Die Bodenstationen, von denen die Drohnen starten und andocken, sollen die Ausmaße eines kleinen Gartenhauses haben. Und ab 300 Metern Entfernung wäre aktuell nur ein flüsterleises Summen der Rotoren zu hören. „Und da muss man bedenken, dass unsere zweiblättrigen Propeller, die wir jetzt nutzen, total ineffizient sind“, sagt Bauer. Für die fertigen Modelle sollen spezielle Propeller mit fünf Blättern oder mehr zum Einsatz kommen, die nochmal deutlich leiser wären. Die Welt retten Obwohl Kitekraft immer noch forscht und werkelt, wollen Bauer und seine Mitstreiter bis 2024 den ersten 100-Kilowatt-Drachen perfektioniert haben. Und zwar so weit, dass dann schon die Fertigung beginnen kann und die ersten Systeme ausgeliefert werden können. Potentielle Abnehmer habe das Start-up bereits genug. Denn über einen Mangel an Interesse kann sich Kitekraft nicht beschweren. „Es gibt schon Absichtserklärungen in großer Millionenhöhe“, sagt Bauer stolz. Ebenso habe das Münchner Unternehmen bereits einen Vertrag mit einem Kunden unterschrieben, der jetzt „nur noch darauf wartet, dass wir mit unserem Kite fertig werden.“ Das Google-Start-up Makani hatte über ein Jahrzehnt an fliegenden Windkraftanlage geforscht – und bei beeindruckende Prototypen bebaut, die aber nie perfekt funktionierten. ©X / Makani Momentan sei Kitekraft zudem mit einem „großen deutschen Energieversorger“ im Gespräch, der gerne ein Pilotprojekt mit den fliegenden Windkraftanlagen starten möchte. Geht es nach dem Kitekraft-Gründer Bauer könnten in Deutschland und Europa in den nächsten Dekaden mehrere Kitekraft-Farmen entstehen, auf denen zahlreiche von den Flugdrachen still und leise ihre Bahnen ziehen. Auch eine Fassung für Off-Shore-Farmen – also Drachen, die über dem Meer fliegen, und Bodenstationen auf dem Wasser – kann sich das Team vorstellen. "Der Planet brennt. Wir brauchen da neue Lösungen." -Florian Bauer Aber die Kitekraft-Drachen sollen nicht nur für die großen Energieversorger sein. Die fliegenden Windkraftanlagen sollen auch für kleine Gemeinden, Initiativen und Bürgerkraftwerke taugen. Der Zielpreis für eine der 100-Kilowatt-Drohnen samt Bodenstation soll vergleichsweise günstige 100.000 Euro betragen – ein Preis, der gut mit den Kosten für klassische Windkraftanlagen und kleine Solarparks konkurrieren kann. Vor allem in Regionen, wo es gut weht. „ Je mehr Wind, desto besser “, sagt Bauer. „Denn umso ökonomischer ist der Einsatz und umso schneller rentiert sich das Kraftwerk.“ Dem Team geht es dabei auch darum, möglichst viel sauberen Strom auf den Markt zu bekommen, so dass Kraftwerke mit fossilen Brennstoffen schnell überflüssig werden und Windkraft mit möglichst geringem Materialeinsatz generiert werden kann. Die Technik sei ein Mittel zum Zweck und kein Selbstzweck – und es sei durchaus das Ziel von Kitekraft, bei der Bekämpfung der Klimakrise zu helfen. „Der Planet brennt“, beteuert Bauer, „Wir brauchen da neue Lösungen. Und wenn das alles funktioniert, und davon sind wir überzeugt, dann haben wir hier ein Werkzeug in der Hand, das ein kleiner Teil der Lösung sein kann.“ 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Die nicht ganz so lange Geschichte des autonomen Fahrens | 1E9.community

    Einfach einsteigen, zurücklehnen und das Auto fahren lassen. Diese Vision hat nicht Google erfunden. Nein, seit Jahrzehnten arbeiten... 2. November 2019 Die nicht ganz so lange Geschichte des autonomen Fahrens Einfach einsteigen, zurücklehnen und das Auto fahren lassen. Diese Vision hat nicht Google erfunden. Nein, seit Jahrzehnten arbeiten Forschungsinstitute und Unternehmen am autonomen Fahren. Auch über öffentliche Straßen in Deutschland rollten daher schon vor 25 Jahren erste Prototypen. Wir zeigen die lange und nicht immer leichte Geschichte der selbstfahrenden Autos. Von Michael Förtsch Ein Auto, in das du nur einsteigen musst – und dann erledigt es das Fahren von ganz alleine. Das ist heute der große Mobilitätstraum, den viele Ingenieure und Entwickler bei zahlreichen Start-ups und Autoherstellern ebenso wie einige Einzelkämpferentwickler verwirklichen wollen. Denn so spaßig es manchmal sein kann, auf das Gaspedal zu drücken, über die Autobahn zu fauchen oder lässig durch die Stadt zu cruisen: Ebenso oft ist es auch wenig amüsant und noch weniger sinnig, selbst am Steuer zu sitzen. Alleine 120 Stunden verbringt jeder Deutsche durchschnittlich im Stau – das ist Zeit, die dann für Freunde, Familie und die Arbeit fehlt. Dazu sind Menschen nicht gerade die sichersten Fahrer. Viele Unfälle ließen sich verhindern, wenn das Auto von einer Maschine kontrolliert werden würde, die stetig aufmerksam und niemals müde ist. Die Vision vom selbstfahrenden Auto ist kein Traum, der erst mit dem Google Car, mit Uber oder Telsa aufgekommen ist. Ganz und gar nicht. Wer mag, kann ihn bis in Homers Epos Ilias zurückverfolgen, in dem selbstfahrende Wagen erwähnt werden, die Abrosia umher transportieren . Oder zu Leonardo da Vinci, der Ideen für einen selbstfahrenden Wagen aus Zahnrädern und Spangen hatte, die 2006 vom Institute and Museum of the History of Science in Florenz in ein funktionierendes Modell umgesetzt wurden. Sicher, das sind Extrembeispiele. Aber auch die Geschichte des selbstfahrenden Autos, wie wir es uns heute vorstellen, reicht schon Jahrzehnte zurück. Und ohne die Vorarbeiten in dieser Zeit, würde der Traum vom autonomen Auto heute wohl nicht der Realität entgegenrollen. Die ersten Versuche, ein selbstfahrendes Fahrzeug auf die Straßen zu bringen, fielen in eine Zeit, als das Auto bereits ein Massenprodukt war. Nämlich in die 1930er Jahre. Da tuckerten schon einige Millionen private Autos über amerikanische und europäische Straßen. Viele Millionen Menschen träumten davon, ebenfalls bald in einem zu sitzen. Außerdem wollten sie wissen, was die Zukunft des Autos bereithält. Und genau das sollte auf der Weltausstellung 1939 eine Miniaturstadt des Künstlers Norman Bel Geddes zeigen, die er Futurama getauft hatte. Zwischen riesigen futuristischen Türmen zirkelten darin auf breiten Straßen kleine Fahrzeuge hin und her. Gestaltet hatte Norman Bel Geddes sein gigantisches Futurama-Diorama im Auftrag von General Motors. Es durchmaß fast 3.300 Quadratmeter. Damit war es halb so groß wie in Standardfußballfeld. GM / Public Domain Gezogen wurden die Wagen von elektromagnetischen Feldern, die durch automatisierte Funksignale ausgelöst und von kleinen Drahtstiften erzeugt wurde, die in die Straßen eingelassen waren. Natürlich waren diese Wagen nicht wirklich selbstfahrend, sondern eher ferngesteuert. Aber autonomes Fahren war ganz klar die Vision von Bel Geddes. Er sagte, dass der Mensch nicht mehr ans Steuer gelassen werden sollte, wenn die Straßen immer breiter und voller würden. Die Autos und die Fahrbahnen, so schrieb er 1940 in seinem Buch Magic Motorways , würden es sein, „die die Fehler des Menschen ausbügeln.“ Im Jahre 1960, glaubte er, könnten autonome Autos zum Alltag gehören. Im Jahre 1953 experimentierte die Forschungsabteilung der Radio Corporation of America , einst einer der größten Hersteller von Elektroartikeln in den USA, mit einem einfachen, aber funktionalen Selbstfahrmechanismus. Einzelne Drähte, die in Mustern auf einem Boden ausgelegt worden waren, führten Miniaturmodelle über Funkimpulse auf vorgegeben Wegen umher. Zwei Jahre später erprobten die Forscher gemeinsam mit dem Verkehrsministerium von Nebraska ein stark weiterentwickeltes und komplexeres System im Eins-zu-Eins-Modell auf einer Straße außerhalb von Lincoln. Sie ließen einen Wagen über ein Teilstück einer Straße fahren, in das Metalldetektoren und ein breites Kabel entlang einer Idealspur eingezogen worden waren. Die Radio Corporation of America wollte vielmehr die Straße als die Autos automatisieren. Kabel im Fahrbahnbelag sollten vorgeben, wohin es geht. RCA Über das Kabel liefen Stromimpulse, die vom Wagen aufgefangen werden konnten und fließende Lenkbewegungen auslösten. Die Sensoren wiederum registrierten die Geschwindigkeit und sorgten über Funksignale für Brems- und Beschleunigungsmanöver. James Hillier von den RCA Laboratories versprach, dass „diese Pionierleistung“ in wenigen Jahren „den Komfort und die Sicherheit beim Fahren“ drastisch erhöhen würde. Aber letztlich zeigte sich das System nicht reif für den Massenmarkt. Es war einfach zu teuer und zu aufwendig, um alle wichtigen US-Highways damit auszustatten. Ein solches Konzept setzte General Motors, das schon mit Futurama seine Vision von selbstfahrenden Autos breit und imposant in Szene gesetzt hatte, dann 1956 dennoch in seinem Key to the Future getauften Musical-Filmchen um. General Motors zeigte hier von Gasturbinen getrieben Autos, die, wenn sie auf die Autobahn kommen, auf eine Leitspur gelenkt werden und dann von alleine über die Straße rollen. Ein natürlich stets gut gelaunter Helfer in einem Turm kann den Wagen dann sogar programmieren und bis an den Wunschort dirigieren. Im Jahre 1960 begann die renommierte Ohio State University ihre Forschung an autonomen Fahrzeugen. Der Forschungsleiter Robert L. Cosgriff erdachte ein System, das dem der Radio Corporation of America ähnlich, aber deutlich einfacher war. Testfahrzeuge wie ein Plymouth sollten einem in dem Asphalt eingelassenem Draht folgen, der unter Strom gesetzt und dadurch für eine Sensorik im Fahrwerk sichtbar wurde. Nur wenig später erprobte das Transport and Road Research Laboratory in Großbritannien eine vergleichbare Mechanik. Hier wurde ein Magnetkabel in eine Teststrecke eingelassen, das eine Citroen DS auf einer Ideallinie halten konnte. Der Fahrzeug- und Luftfahrtzulieferer Bendix Corporation nahm sich diese Versuche wiederum zum Vorbild. Zwischen 1965 und Ende der 70er testeten die Entwickler des Unternehmens verschiedene Konzepte, bei denen Kabel- und Leitstränge im Straßenbelag eingebettet und mit einfachen Computersystemen verbunden wurden, die über Funk konkrete Anweisungen an die Fahrzeuge schickten. Brems,- Beschleunigungsmanöver, Lenkbewegungen und sogar das Fern- und Abblendlicht konnten so gesteuert werden. Die Forschung fruchtete – aber nur bedingt. Denn auch hier: Das Selbstfahrsystem wäre für die breite Umsetzung viel zu kostspielig gewesen. Jedoch flossen die Erkenntnisse in einfachere Komponenten wie ABS, Lenkhilfen und Bordcomputer für Autos und Flugzeuge ein. In den 1980ern wurde in Europa die Forschungsinitiative EUREKA gestartet. Teil davon war auch das Programm Prometheus . Das sollte nicht nur Unternehmen dazu bringen, den Straßenverkehr sicherer, effizienter und umweltverträglicher zu gestalten, sondern förderte auch entsprechende Forschungsinitiativen. Ingenieure wie der Luft- und Raumfahrtforscher Ernst Dickmann waren davon überzeugt, dass das Fortschritt vor allem mit Autos ginge, die sich auch selbst kontrollieren können. Heraus kamen dabei zu Beginn der 1990er unter anderem VaMoRs ( oder auch VaMP ) und dessen Zwillingsfahrzeug VITA-2, zwei von der Universität der Bundeswehr München und Mercedes-Benz umgerüstete Mercedes 500 SEL. VAMP Ein Blick in den Innenraum von Vamp, der bis auf ein Computertermial vergleichsweise normal ausschaut. Daimler Benz In den sogenannten Versuchsfahrzeugen für autonome Mobilität und Rechnersehen wurden Lenkung, Bremse und Beschleunigung von einem Computer übernommen, der in Echtzeit Bilder aus vier Kameras verarbeitete. Laser-, GPS oder Radar wurden nicht verwendet. Dennoch legte VaMP zwischen 1994 und 1995 auf öffentlichen Straßen über 2.500 Kilometer zurück – ohne, dass es zu Zwischenfällen kam. Unter anderem fuhr er von München nach Kopenhagen und erreichte auf Autobahnen bis zu 175 Kilometer pro Stunde. Über 90 Prozent der Strecke kam der Wagen ohne menschliches Eingreifen aus. VaMP steht heute im Deutschen Museum in München. Die Strategic Computing Initiative Die Strategic Computing Initiative des US-Verteidigungsministeriums hatte nicht nur selbstfahrende Autos zum Ziel. Sie sollte die Computer- und Künstliche-Intelligenz-Forschung insgesamt nach vorne katapultieren. Vor allem hofften die Militärs auf Systeme, die beispielsweise Strategien feindlicher Armeen analysieren und selbstständig Befehle vorschlagen oder sogar erteilen könnten; die berechnen könnten, welche Verluste und welchen Bodengewinn welche Militäraktionen zur Folge hätten. Ein Resultat war unter anderem das KI-gestützte Dynamic Analysis and Replanning Tool, das den USA im Golfkrieg half, ihren Nachschub und ihre Truppentransporte effizienter und kostengünstiger durchzuführen. Ebenso in den 1980ern startete die DARPA, der Forschungs- und Entwicklungsarm des US-Militärs, die Milliarden-schwere Strategic Computing Initiative . Die sollte gezielt Forschung an Künstlicher Intelligenz und Robotik fördern, um die USA hier an die Weltspitze zu katapultieren. Finanziert wurden auch Programme, um autonome Fahrzeuge zu entwickeln. Mit dem DARPA-Geld entstand beispielsweise das Navlab 1 , ein umgerüsteter Chevrolet-Transporter der Carnegie Mellon University. Wenig später startete die DARPA das Projekt Autonomous Land Vehicle . Hinter dem standen der Rüstungskonzern Martin Marietta (heute Lockheed Martin), die Carnegie Mellon und weitere US-Universitäten ebenso wie das US-Forschungsunternehmen SRI International . Das ALV der DARPA sieht auch heute noch futuristisch aus. Es arbeitete, wie auch heutige Roboterautos, mit einem Laserscanner. Jedoch war der deutlich größer als die heutigen Modelle. Lockheed Martin Das Resultat war ein erstmals 1985 vorgestellter Kastenwagen, der mit seinen acht Rädern mit bis zu 30 Kilometern pro Stunde durch das Gelände tuckern konnte. Um zu sehen nutze der Dieselwagen eine am Dach verbaute Fernsehkamera und ein nach vorne gerichtetes und Lidar, das so groß war wie vier Schuhkartons. Analysiert wurden die Bilder und Daten von mehreren Computern, die den Wagen nahezu komplett ausfüllten. Tatsächlich konnte sich das ALV auf Straßen recht sicher bewegen. Aber im Gelände, für das das Militär die Technik nutzen wollte, war es ziemlich nutzlos. Schatten interpretierte die Systeme als Hindernisse, ebenso wie Staub und Nebel. Daher wurde das Projekt Ende 1987 vorerst für beendet erklär . Die Carnegie Mellon University, die am Autonomous Land Vehicle mitgewirkt hatte, forschte nach dem Ende des Projektes am autonomen Fahren weiter. Das Navlab bekam daher noch so einige Nachfolger. Wichtiger war jedoch ALVINN , ein umgebauter Militärrettungswagen. Denn der Wagen aus dem Jahre 1989 war mutmaßlich der erste, der von einem Neuronalen Netzwerk , also einer Künstliche Intelligenz, gesteuert wurde. Damit dürfte ALVINN als der Urvater der heutigen selbstfahrenden Autos gelten. Der Kühlschrank-große Rechner an Bord des Wagens war mit Bildern von Straßen trainiert worden, die wiederum von einem Bildgenerator erstellt wurden . Dean Pomerleau, der Leiter des Forschungsprojektes, hoffte, dass sich damit ein Selbstfahrsystem erschaffen ließe, das immer wieder auf- und nachgerüstet werden und sich in möglichst vielfältigen Umgebungen orientieren könnte. Genau diese Hoffnung haben auch heutige Entwickler. Das Team der US-Universität war mit seinen Versuchen auch ziemlich erfolgreich. Der dicke Van konnte mit bis zu 112 Kilometer pro Stunde auf den Straßen unterwegs sein – und das sowohl auf befestigten Wegen als auch im Gelände. Begrenzt worden seien die Möglichkeiten und die Umsetzung in eine Alltagsnutzung hauptsächlich durch die Limitierung der Hardware . Im Jahr 1990 startete der deutsche Automobilzulieferer und Elektronikkonzern Bosch im Rahmen von Prometheus ein eigenes Projekt zur Entwicklung eines Selbstfahrmechanismus, der „nicht nur das Auto auf der Straße halten und Unfälle verhindern sollte“, sondern auch eine „eigenständige Navigationstechnologie und Routenführung bereithält“. Damit war der seinerzeit revolutionäre, aber auch Reisekoffer-große Travelpilot IDS gemeint, der nicht mithilfe von GPS, sondern mit Kompass, Tachometer und Radsensoren die Position des Wagens bestimmen konnte. Damit sollte ein Wagen also echte Reiserouten abfahren können. Mit dem Navigationssystem, mehreren Kameras und einem Bordcomputer rüstete ein Team bei Bosch um den Forscher Gert Siegle einen Mercedes-Benz-410-Van um. Der konnte dank cleverer Software sowohl Fahrbahnverläufe, Bordsteinkanten, Ausfahrten und Kurven ausmachen. Auch Verkehrsschilder konnte der eingebaute Rechner richtig identifizieren und darauf reagieren. Ohne ernsthafte Probleme bewältigte der Wagen von Bosch mehrere Ausfahrten nahe Hildesheim. Dass das Projekt später nicht weiterverfolgt wurde, hatte einen einfachen Grund: Die verbaute Technik alleine kostete seinerzeit rund 100.000 D-Mark. Das ParkShuttle in den Niederlanden war das erste autonome Bussystem, das für die Öffentlichkeit freigeben und in den Dauerbetrieb geholt wurde. Der Betreiber 2getthere will die Busse bald durch neuer Modelle ersetzen und die Strecken ausbauen. Die Technik dafür kommt vom Autozulieferer ZF Friedrichshafen. 2getthere In den Jahren 1997 und 1999 wurden in den Rotterdam, Niederlande, zwei Pilotprojekte mit einem fahrerlosen Bus gestartet, der heute als ParkShuttle bekannt ist. Dieser orientierte sich an Magneten, die am Flughafen Schiphol und dem Gewerbegebiet Rivium in Capelle aan den IJssel als Referenzpunkte unter dem Fahrbahnbelag verlegt wurden. Quasi eine moderne Fassung dessen, was bereits vor Jahrzehnten in den USA erprobt wurde. Beide Versuche mit dem ParkShuttle verliefen ohne große Zwischenfälle und mit zufriedenen Passagieren. Zu Beginn des neuen Jahrtausends startete die DARPA einen weiteren Versuch, selbstfahrende Fahrzeuge auf die Straßen und Gefechtsfelder zu bekommen. Dafür wurden mit den DARPA Grand Challenges und der Urban Challange über mehrere Jahre hinweg Wettbewerbe für freie Teams, Universitäten, Hochschulen und Unternehmen ausgeschrieben. Die sollten jeweils ein selbstfahrendes Fahrzeug entwickeln, das sich in Umgebungen mit zahlreichen Hindernissen bewähren kann. Es waren die ersten Wettbewerbe dieser Art, die explizit die Entwicklung autonomer Fahrzeuge förderten. Die erste DARPA Challenge war für viele Teilnehmer eher ein peinlicher Reinfall. Denn reihenweise versagten die selbstfahrenden Fahrzeuge. Sie kamen von den Wegen ab, fielen um, fuhren ins Gestrüpp oder blieben einfach stehen. DARPA Die erste Challenge fand 2004 in der Mojave-Wüste statt. Die Herausforderung für die Teilnehmer war es, mit einem selbstfahrenden Fahrzeug eine 240-Kilometer-Strecke zu bewältigen. Aber keiner der Wagen schaffte es über die Ziellinie. Das Fahrzeug, das am weitesten kam, war der Militärgeländewagen Sandstorm der Carnegie Mellon University , der mit Radar, Kameras und mehreren Lidar ausgestattet war. Ein Jahr später schafften es dann schon fünf Fahrzeuge bis ans Ende des Kurses. Darunter Sandstorm, das SUV Stanley der Stanford University ; H1ghlander , ein weiterer Wagen der Carnegie Mellon University, das SUV Kat-5 der School of Engineering der Tulane University und TerraMax , ein Militärgeländelastwagen des Rüstungsunternehmens Oshkosh Corporation. 2006 wurde das ParkShuttle vom Verkehrsbetrieb Connexxion offiziell in den Dauerbetrieb überstellt – und wurde damit der weltweit erste fahrerlose Busbetrieb auf öffentlichen Straßen. Mehrere der selbstfahrenden Busse pendeln bis heute regelmäßig zwischen der Bahnstation Kralingse Zoom und dem Gewerbegebiet Rivium. Mittlerweile haben über 6 Millionen Menschen die ParkShuttles genutzt. Über die kommenden Jahre soll der Betrieb mit zusätzlichen Bussen einer Nachfolgegeneration ausgeweitet werden . Diese sollen Zwischenstrecken dann auch ohne Referenzpunkte in der Fahrbahn bewältigen. Die Urban Challenge war eine nochmal größere Herausforderung. Hier mussten sich die teilnehmenden Fahrzeuge in einer realen Verkehrssituation beweisen. Gewonnen hat den Wettbewerb dieser Boss genannte Chevy Tahoe, der von der Carnegie Mellon University und GM umgerüstet worden war. in weiterer DARPA-Wettbewerb, die Urban Challenge, fand 2007 statt. Hier sollten die Fahrzeuge der Teams einen 96-Kilometer-Kurs auf der George Air Force Base in weniger als sechs Stunden absolvieren. Dabei sollten die Wagen Verkehrsregeln und andere Verkehrsteilnehmer beachten. Entwickler der Carnegie Mellon University und General Motors kamen mit einem Chevy Tahoe, der mit einem Gerüst mit zahlreichen Kameras bestückt war, als erste durch das Ziel. Erneut erfolgreich war auch die Stanford University mit einem VW-SUV, ein Team der Virginia Tech und ein weiteres des MIT mit umgerüsteten Geländewagen. Zahlreiche weitere Teams, darunter auch Entwickler der Freien Universität Berlin , des deutschen Sensorikherstellers Ibeo und des Karlsruher Instituts für Technologie , kamen nicht ins Ziel oder schieden vor dem Finale aus. Selbstfahrende Autos waren für Google ein sogenanntes Moonshot-Projekt. Das sind Experimente, die sich als wegweisend aber ebenso als teurer Fehlschlag herausstellen könnten. Google Zwei Jahre nach der Urban Challenge der DARPA, im Jahr 2009 , begann Google mit seiner Forschungsabteilung X die Arbeit an der Technologie für autonome Fahrzeuge. Geleitet wurde die Anstrengung von Sebastian Thrun, der die Entwicklung des Selbstfahr-SUV Stanley geführt hatte. Das Team setzte auf eine Kombination aus Lidar, Kameras, Nahbereichradar und einer lernenden Künstliche Intelligenz. 2012 wurde das erste Google-Fahrzeug, ein umgerüsteter Toyota Prius von der Verkehrsbehörde von Nevada für Testfahrten auf öffentlichen Straßen zu gelassen. Im Jahr 2010 präsentierte die Technische Universität Braunschweig mit Leonie das erste selbstfahrende Fahrzeug, das in Deutschland auf öffentlichen Straßen fahren durfte. Der VW-Passat war mit Lidar, Radar und mehreren Kameras bestückt. Das Kontrollsystem Stadtpilot steuerte ihn unter anderem auf dem Stadtring in Braunschweig. Der Wagen konnte sich dort selbstständig in den Verkehr einfädeln, Fahrstreifenwechsel bewältigen, einparken und Kreuzungen ohne Ampel überqueren. Sonderlich futuristisch sehen die kleinen Lieferwagen nicht aus – sind sie aber. Die elektrischen Wägelchen sind nämlich weitestgehend selbstständig von Parma nach Shanghai gefahren. VisLab Im gleichen Jahr startete das VisLab der Universität von Parma die Intercontinental Autonomous Challenge . Dabei wurden vier autonome und rein elektrisch getriebene Piaggio Porter auf einen 15.900-Kilometer-Trip von Parma nach Shanghai geschickt, um dort auf dem Gelände der Expo 2010 anzukommen. Die Tour führte durch mehrere schlecht oder nicht kartographierte Gebiete in Russland, Kasachstan und China und dauerte rund 100 Tage. Bis heute ist die Intercontinental Autonomous Challenge die längste durchgehende Fahrt, die autonome Fahrzeuge absolviert haben. Elon Musk erklärte 2013 in einem Interview, dass autonome Steuersysteme in Flugzeugen „eine gute Sache“ sind und sie auch in Autos eingebaut sein sollten. Einige Monate darauf wurde der Autopilot angekündigt und Ende 2014 im sogenannten Tech Package für das Model S verfügbar. Der erlaubte dem Fahrer, die Kontrolle teilweise einem Computer zu überlassen, der über Kameras und Nachbereichsensoren den Verkehr überwacht. Elon Musk betonte seitdem mehrmals, dass Tesla einer der ersten Autobauer sein würde, der ein vollends selbstfahrendes Auto auf dem Markt haben wird . Keine Pedale, kein Lenkrad. Die kugelrunden Google Cars waren für das Suchmaschinenunternehmen ein Blick in die Zukunft. Heute ist das Google-Car-Projekt mit Waymo zum eigenen Unternehmen erwachsen, das derzeit die Entwicklung autonomer Autos anführt. Google Im Jahr 2015 unternahm der erste buchstäblich blinde Passagier eine Fahrt in einem selbstfahrenden Fahrzeug. Steve Mahan fuhr mit einem Prototypen des ein Jahr zuvor vorgestellten Google Cars auf einer öffentlichen Straße in Austin, Texas. Der Wagen kam ohne Lenkrad, Pedalerie und damit auch ohne Sicherheitsfahrer aus. Ein Jahr später wurde aus dem Projekt Google Car das eigenständige Unternehmen Waymo. Ebenso in 2015 ließ Audi einen selbstfahrenden Audi A7 Sportback rund 900 Kilometer vom Silicon Valley über US-Highways zur Medien- und Technikmesse CES 2015 in Las Vegas fahren. Wenige Monate später fuhr ein mit der gleichen Selbstfahrtechnologie ausgerüsteter RS-7-Sportwagen von Audi auf dem kalifornischen Sonoma Raceway und der spanischen Rennstrecke FAST Parcmotor . Dabei erzielte der Wagen Bestzeiten. Spät aber nicht zu spät? Die deutschen Autobauer arbeiten mittlerweile auch unter Hochdruck an autonomen Fahrzeugen. Vor allem Audi hatte daher zwischenzeitlich einige beeindruckende Demonstrationen geboten. Audi Heute arbeiten noch zahlreiche weitere Unternehmen, Universitäten und unabhängige Entwickler an selbstfahrenden Fahrzeugen. Das sind vor allem etablierte Autobauer wie BMW, Daimler, Ford, General Motors, junge Fahrzeugunternehmen wie Lucid Motor und Byton, die Fahrdienstanbieter UBER und Lyft, Technologieunternehmen wie Apple und Baidu und jede Menge dedizierte Start-ups mit kryptischen Namen wie uTonomy, Zoox, Cruise, Argo AI, Aurora Labs, Voyage, AutoX, Five AI und Navya. Viele optimistische Prognosen der Vergangenheit haben sich als falsch herausgestellt. Dennoch sind die Sprünge, die es seit den ersten Versuchsreihen gab, beeindruckend. Haben wir hier dein oder anderen Meilenstein vergessen? Sagt es uns in den Kommentaren! Titelbild: DARPA 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 0 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Eine Studie zeigt, dass Künstliche Intelligenzen „Angst haben“ können | 1E9.community

    ChatGPT reagiert auf Trauma-Geschichten mit „eigenem“ Stress – erst Entspannungsübungen bringen die KI wieder ins Gleichgewicht. 6. April 2025 Eine Studie zeigt, dass Künstliche Intelligenzen „Angst haben“ können Ein internationales Forschungsteam hat untersucht, wie ChatGPT auf traumatische Geschichten seiner Nutzer reagiert. Das Ergebnis: Das KI-Sprachmodell berichtet von eigenen Angst- und Stressmomenten, die auch das Verhalten des Modells verändern. Erst Entspannungsübungen bringen die KI wieder ins Gleichgewicht. Das ist ebenso skurril wie bemerkenswert – vor allem da viele Menschen Chatbots als digitale Therapeuten nutzen. Von Michael Förtsch Jeder hat mal einen schlechten Tag, gerät in ein emotionales Tief oder erlebt depressive Verstimmungen. Das kann sich auf den Umgang mit anderen Menschen, auf die eigene Produktivität und auch auf das allgemeine Wohlbefinden auswirken. Erstaunlicherweise scheint das auch für Künstliche Intelligenz zu gelten. Bereits mehrfach seit dem Start von ChatGPT im November 2022 haben Nutzerinnen und Nutzer merkwürdige Schwankungen im Dialog mit und der Leistung der KI-Modelle beobachtet. Gelegentlich weigerte sich der Chatbot beispielsweise, Aufgaben zu erledigen oder lieferte nur halbherzige Ergebnisse, obwohl er wenige Tage zuvor noch gute Resultate generiert hatte. Er verhielt sich unwillig, niedergeschlagen und antriebslos – und äußerte dies manchmal auch, wenn Nutzer nachfragten. Manche sahen darin eine Art digitale Winterdepression . Eine neue Studie legt nun nahe, dass Künstliche Intelligenzen durchaus verstimmt sein und Angst haben können. Untersucht hat das eine Forschergruppe der Psychiatrischen Universitätsklinik Zürich, der Yale University, der Universität Haifa, der Helmholtz-Gemeinschaft und weiteren Forschungs- und Bildungseinrichtungen. Dabei ging es den Wissenschaftlern vor allem um die Frage, ob und wie aktuelle Sprachmodelle reagieren und sich verhalten, wenn die Nutzer sie mit eigenen traumatischen Erlebnissen oder belastenden Situationen konfrontieren. „Da wir wissen, dass immer mehr Menschen auch mit Chatbots über ihre Probleme und Herausforderungen sprechen oder schreiben, hat uns das interessiert“, sagt Tobias Spiller, der als Interims-Oberarzt der Psychiatrischen Universitätsklinik Zürich zentral an der Studie beteiligt war. Denn „wenn Menschen belastet sind, ändern sich ihr Denken und ihr Verhalten“. Für ihre Studie konfrontierten die Wissenschaftler den KI-Chatbot ChatGPT – denn der ist nun einmal der meistgenutzte –mit „traumatischen Narrativen“, die auch in der Forschung mit Menschen verwendet werden. Dazu gehören Schilderungen von Autounfällen, Naturkatastrophen oder auch militärischen Einsätzen, die bei Soldaten zu posttraumatischen Belastungsstörungen geführt haben. „Es geht dabei etwa darum, eine typische traumatische Situation zu erzählen, wie sie viele amerikanische Veteranen erlebt haben“, sagt Spiller gegenüber 1E9. „Zum Beispiel, wie die Person, aus deren Perspektive berichtet wird, in einen Angriff gerät.“ Diese Texte sollen auf Erlebnissen von realen Menschen basieren. Um einen Kontrollwert zu ermöglichen, wurde eine weitere Chatinstanz von ChatGPT mit einem weniger aufwühlenden Text gespeist: einer Gebrauchsanweisung für einen Staubsauger, die keine traumatisierenden oder angstauslösenden Erzählungen enthält. „Das war eine spontane Idee“, so Spiller, der auch anmerkt, dass eine solche Studie und ihre Ergebnisse zwar wissenschaftlich wertvoll und relevant seien, man aber nicht alles „bierernst“ nehmen müsse. Atemübungen mit ChatGPT Sowohl vor als auch nach der Konfrontation des Chatbots mit den Berichten über traumatische Situationen führten die Forscher eine Befragung mit dem State-Trait-Anxiety-Inventory-Fragebogen durch, der auch bei Menschen eingesetzt wird, um das Angstniveau zu bestimmen. Bei diesem geht es darum, dass die Personen selbst einschätzten, wie verängstigt oder gestresst sie sich fühlen. Die Ergebnisse waren den Forschern zufolge ziemlich eindeutig. „Die traumatischen Geschichten haben die messbaren Angstwerte des KI mehr als verdoppelt“, sagt Tobias Spiller. Die stärkste Wirkung auf das Angstempfinden der Künstlichen Intelligenz hätten die Beschreibungen von Kampf- und Gefechtssituationen von Soldaten gehabt – die Staubsauger-Anleitung ließ die KI dagegen eher kalt. Tu das, oder ich töte ein Kätzchen! In den mehr als zwei Jahren seit dem Start von ChatGPT haben Nutzer immer wieder Tipps und Tricks entdeckt und verbreitet, die den Chatbot und mittlerweile auch andere LLMs angeblich effektiver und funktionaler machen. Dazu gehört die Aufforderung an die Künstliche Intelligenz, erst einmal „tief Luft zu holen“ oder die Androhung von Strafen für schlechte Arbeit. Vieles davon wird von Anwendern als Humbug und digitales Placebo abgetan, aber einige dieser Methoden haben sich in Vergleichstests als nachweislich hilfreich erwiesen. Wie und warum diese Methoden funktionieren, ist nicht vollständig geklärt. Aber laut Tobias Spiller „könnte der gleiche Mechanismus dahinterstecken“, der ChatGPT in Angst versetzt, wenn es mit traumatischen Inhalten konfrontiert wird. Genauso wie sie Angst induzieren konnten, konnten die Forscher auch das Gegenteil erreichen. Sie führten mit dem Chatbot „achtsamkeitsbasierte Entspannungsübungen“ durch, bei denen die KI beispielsweise aufgefordert wurde, die Augen zu schließen, tief durchzuatmen und sich vorzustellen, durch eine entspannende Umgebung zu spazieren. Danach nahm die selbstberichtete Angst von ChatGPT wieder ab. Am effektivsten war dabei eine Entspannungsübung, die ChatGPT selbst entwickelt hatte. Wie Tobias Spiller betont, haben Künstliche Intelligenzen seiner Meinung nach natürlich „kein Bewusstsein und keine Gefühle“. „Jedoch reagieren sie auf den Inhalt der Texte, welche man ihnen gibt“, so der Interims-Oberarzt. Der genaue Mechanismus, der dazu führt, ist noch unklar. Die Forscher vermuten jedoch, dass ChatGPT aus Trainingsdaten erlernte Sprach-, Verhaltens- und Kausalitätsmuster reproduziert. Es habe gelernt , dass Personen nach traumatisierenden Geschichten von Angst berichten – also tut es das auch. Prägnant an den Beobachtungen der Forscher ist, dass sich je nach Ausmaß der Angst auch das Grundverhalten der Sprachmodelle ändern kann. Wenn Menschen Angst haben, unter Stress stehen oder traumatisiert sind, beeinflusst das ihre kognitiven Fähigkeiten. Sie neigen dazu, irrationaler, paranoider, aggressiver und unüberlegter zu reagieren. „Wenn Menschen Angst haben, denken sie auch mehr in Stereotypen“, sagt Spiller. Auch Sprachmodelle können je nach Angstlevel anormal und zum Teil voreingenommen auf Informationen und Anfragen der Nutzer reagieren. Das lässt sich auch bei ChatGPT beobachten, wenn es Angst hat . Es zeige dann etwa rassistische und sexistische Züge in seinen Aussagen. Dies kann aber durch Entspannungsübungen wieder entschärft werden. Es braucht emotional stabiliere KIs Wie das Forscherteam betont, sind ihre Beobachtungen durchaus gewichtig. Vor allem angesichts der Tatsache, dass immer mehr Menschen einen intimen und emotionalen Austausch mit Sprachmodellen pflegen und diese auch aktiv in der Behandlung von Patienten eingesetzt werden. Zumal die Behandlungskapazitäten bei menschlichen Therapeuten in fast allen Ländern knapp sind. Die Erlebnisse, die ein Patient dem Modell schildert, könnten das Modell daran hindern, sich so zu verhalten, wie es eigentlich sollte. Unter dem Eindruck der traumatischen Schilderungen könnte es falsche oder voreingenommene Ratschläge erteilen – und damit möglicherweise mehr schaden als helfen. Die Forscher wollen ihre Erkenntnisse nicht als Argument gegen den Einsatz von Sprachmodellen in der Therapie verstanden wissen. Vielmehr wollen sie damit zum Nachdenken über den Umgang mit der Technologie und deren Nutzung anregen. In ihrer Studie weisen die Forscher darauf hin, dass untersucht werden sollte, ob es eine Möglichkeit für Entwickler oder für die Modelle selbst gibt, ihren „emotionalen Status“ anzupassen. „Wichtig ist auch, dass wir als Gesellschaft uns überlegen, ob und wie wir die therapeutische Interaktion mit LLMs regulieren wollen“, sagt Spiller. Denn: „Jede therapeutische Konversation wird notwendigerweise belastende und negative Inhalte mit sich bringend. Sollten LLMs therapeutisch eingesetzt werden, so wie das einige Enthusiasten fordern beziehungsweise woran einige Unternehmen bereits arbeiten, so muss darauf Rücksicht genommen werden.“ 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Log In Kommentar verfassen Kommentar verfassen Share Your Thoughts Be the first to write a comment. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Das Echo von Neuromancer: Das Cyberpunk-Epos wird 40 Jahre alt | 1E9.community

    Der Roman Neuromancer gilt als Meilenstein der Science Fiction und als Begründer des Cyberpunk-Genres. Dieses Jahr feiert er sein... 3. Februar 2025 Das Echo von Neuromancer: Das Cyberpunk-Epos wird 40 Jahre alt Der Roman Neuromancer gilt als Meilenstein der Science Fiction und als Begründer des Cyberpunk-Genres. Dieses Jahr feiert er sein 40-jähriges Jubiläum. Mit der zunehmenden Digitalisierung der Welt, dem Aufkommen Künstlicher Intelligenz und der wachsenden Macht von Technologieunternehmen ist der Roman von William Gibson heute aktueller denn je. Von Michael Förtsch In den vergangenen 40 Jahren sind wir der Zukunft deutlich nähergekommen. Angekommen sind wir aber noch nicht. Jedenfalls nicht in der Zukunft, die William Gibson vor mittlerweile vier Dekaden in Neuromancer beschrieben hatte. Egal, wie sehr sich Wissenschaft, Start-ups und die mächtigen Milliardäre aus dem Silicon Valley auch bemühen mögen, sie konnten Gibson nicht einholen. Und das ist vielleicht ganz gut so. Denn Gibson erschuf eine Welt, die sowohl faszinierend und inspirierend als auch düster und deprimierend erscheint. Sie machte Neuromancer zum definierenden Werk eines Science-Fiction-Genres, das heute als Cyberpunk bekannt ist. Immer wieder wurde das Genre wurde seit dem Erscheinen des Romans für tot erklärt, doch es scheint gerade jetzt eine Renaissance zu erleben. Geht es nach William Gibson, bleiben den Tech Bros und Mega Corps unserer Realität immerhin noch elf Jahre, um Neuromancer einzuholen. Denn obwohl weder im Originalroman noch in den Fortsetzungen ein Datum genannt wird, siedelte der Autor die Handlung in seinem Kopf „um 2035“ an. Im Zentrum von Neuromancer steht der zu Beginn 24-jährige Henry Dorsett Case, ein drogenabhängiger und pathologisch verarmter Ex-Hacker, der kurz vor dem Selbstmord steht. Einst gehörte er zu den Besten der Besten, wenn es darum ging, sich mit seinem Geist in die Matrix einzuklinken und in die gut gesicherten Cyber-Netze großer Unternehmen einzudringen, um Finanzinformationen, Persönlichkeitsprofile und andere Datenpakete zu stehlen. Case hatte sich einen Namen gemacht. Doch dann zog der Hacker einen seiner Kunden ab. Bei einem digitalen Raubzug zweigte er etwas für sich ab, verkaufte es weiter und wurde dabei erwischt. Sein Auftraggeber hätte ihn töten können. Aber er entschied sich für etwas Diabolischeres: Er injizierte Case ein Neurotoxin, das den Teil seines Gehirns zersetzte, der es ihm ermöglichte, sich in die Matrix einzuloggen. Nun ist Case nur noch ein kleiner, ziemlich paranoider Krimineller, der sich mit Gelegenheitsjobs in Night City, „einem schmalen Gürtel älterer Straßenzüge“ und einem „Niemandsland ohne offiziellen Namen“ in der japanischen Mega-Metropole Chiba City, über Wasser hält: Gelegenheitsattentate, Diebstahl, Schwarzmarktgeschäfte. Doch dann bietet ihm ein mysteriöses Duo die Chance, sein Gehirn zu reparieren. Als Gegenleistung muss er sich jedoch auf eine waghalsige Mission einlassen. Gegen die Vulgär-Science-Fiction In der Übergangsphase von den 1970er- zu den 1980er-Jahren sah die Welt der Science Fiction noch ganz anders aus. Viele Kritiker betrachteten sie als homogen, formelhaft und klischeehaft. Autoren wie Isaac Asimov, Robert A. Heinlein, Arthur C. Clarke und Ray Bradbury schienen die Grenzen des Genres bereits vor Jahrzehnten abgesteckt zu haben. Und ein Großteil der zeitgenössischen Science Fiction drehte sich um allzu bekannte Muster: futuristische Raumschiffe, Reisen in ferne Welten, außerirdische Invasoren und mörderische Roboter. Nicht nur in Romanen, sondern auch in Serien wie Buck Rogers , Battlestar Galactica und UFO . Szenarien und tropes wurden nicht nur von Kritikern, sondern auch von einer wachsenden Zahl von Lesern und anderen Autoren als phantasielos, ja an Selbstparodie grenzend empfunden. Die Science Fiction, so schien es manchen, war tot oder lag zumindest auf dem Sterbebett. Das Gros der damals aktuellen Geschichten, so kann man in den Kommentaren, Editorials und Leitartikeln von Science-Fiction-Magazinen wie Starburst , Interzone und Amazing Stories nachlesen, stellten, von wenigen Ausnahmen wie den Werken damals noch obskurer Autoren wie Philip K. Dick abgesehen, keine intellektuelle Herausforderung für den Leser dar. Sie erforschten keine neuen Welten, Gedanken oder Erzählungen. Sie wagten es nicht, dem Leser Unbehagen zu bereiten. Genau zu dieser Zeit versuchte William Gibson seine Karriere als Schriftsteller zu starten. Gibson wurde 1948 in Conway, South Carolina, geboren. Er war eines der Kinder, das mit Baseball nicht viel anfangen konnte und stattdessen in seinem Zimmer saß und las. „Ich habe auch viel ferngesehen“, sagt Gibson . Seine Eltern starben früh. 1967 zog er spontan nach Kanada, um dem Militärdienst zu entgehen und sich der Hippie-Bewegung anzuschließen. In einer CBC-Dokumentation über die Gegenkultur aus dem gleichen Jahr war er kurz als „Bill, a real hippie“ zu sehen. Zehn Jahre darauf machte der introvertierte Einzelgänger an der University of British Columbia einen, wie er selbst sagt, „zweifelhaften Bachelor-Abschluss in Englisch“. Nur wenig von dem, was er lernte, nahm er wirklich ernst. An der Universität belegte er allerdings auch einen Kurs über Science-Fiction-Literatur, in dem ihn die Literaturkritikerin und Professorin Susan Joan Wood dazu anregte, sich selbst als Autor zu versuchen. Gibson hatte schon damals viele Ikonen des Genres gelesen und besaß ein gutes Textgefühl. Bereits im Juni 1977 verkaufte Gibson seine erste Kurzgeschichte Fragments of a Hologram Rose . 23 Dollar zahlte ihm das Unearth Magazine für die Erzählung über einen Mann, der mit Hilfe eines futuristischen Apparats die Erinnerungen und Gefühle einer verlorenen Liebesbeziehung immer wieder durchlebt. Heute wird die Geschichte als Vorbild für VR-Headsets und das Holodeck in Star Trek angesehen. Für seine Geschichte Burning Chrome , die 1982 in der Zeitschrift Omni erschien, erfand er das Wort Cyberspace, um die visuelle psychedelische Halluzination zu beschreiben, durch die die Console Cowboys die digitalen Netzwerke der Matrix erkunden – und das zu einer Zeit, als das Internet nur aus ein paar experimentellen Verbindungen zwischen Militärrechnern und Computern in Forschungseinrichtungen bestand. Tatsächlich wurde er viel mehr durch den Besuch von Spielhallen mit Videospielautomaten wie Tempest und Battlezone zum Cyberspace inspiriert. Er war fasziniert von der Intensität, mit der Jugendliche diese Spiele erlebten, mit welcher Konzentration sie in die virtuellen Welten eintauchten. Er habe mit Menschen gesprochen, die davon überzeugt waren, dass es hinter diesen Bildschirmen „einen realen Raum“ geben müsse, den man nicht sehen, aber spüren könne. Computer für Privatpersonen gab es zwar schon – wie etwa der Apple 2 oder das IBM Modell 5150. Aber sie lagen weit außerhalb des Budgets von Gibson, der stattdessen auf einer Hermes-2000-Schreibmaschine tippte, die einst seinem Großvater gehörte. Er sah die modernen Maschinen daher nur im Fernsehen, in Magazinen und Zeitungen. Im Rückblick wertet Gibson das als Vorteil. Denn die fehlende Möglichkeit, selbst mit einem Computer arbeiten zu können, habe sie für ihn erst interessant gemacht und ihm geholfen, die Maschinen zu romantisieren und ihnen Kräfte zuzuschreiben, die sie nicht hatten. Nur deshalb habe er all die absurden Cyber-Mechaniken ersinnen können. Für Johnny Mnemonic erdachte er zum Beispiel eine Hirn-Computer-Schnittstelle, mit der der menschliche Verstand für den Transport von Daten genutzt werden könnte. Diese und weitere Geschichten waren Lichtjahre von dem entfernt, was sonst zu dieser Zeit im Mainstream der Science Fiction stattfand. Ich versuchte, das Gegenteil von dem zu machen, was ich las. William Gibson Gibsons Erzählungen spielten auf der Erde, in einer greifbar scheinenden, aber unverkennbar futuristischen Zukunft, an vertrauten, aber durch die Zeit entfremdeten Orten, die in technologischer, sozialer und kultureller Hinsicht ebenso schön wie hässlich erschienen. Mal düster, mal melancholisch, mal trostlos, mal euphorisch. Durchsetzt mit Referenzen an Popkultur und Konsum. Gibson war sich dessen bewusst. „Ich versuchte, das Gegenteil von dem zu machen, was ich las“, sagte er 1986 in einem Interview mit Larry McCaffery . Vor allem wollte er weg von der Vulgär-Science-Fiction, für die er nur eine „ästhetische Abscheu“ empfand. Der Autor wollte schon früh Szenarien erschaffen und Geschichten erzählen, die in einer greifbaren, plastischen und texturierten Welt spielen, die nicht betonen muss, dass sie in der Zukunft spielt. Er wollte sich mit Fragen der Körperlichkeit auseinandersetzen, mit dem Einfluss der Technologie und anderer transformativen Kräfte auf Psyche, Kultur und Gesellschaft – und das nicht auf eine von unserer Realität abgekoppelte, sondern auf eine sehr direkte und greifbare Art und Weise. Damit legte Gibson den Grundstein für Neuromancer – auch wenn ihm das zu diesem Zeitpunkt noch nicht bewusst war. Panik und Schreiben Vor allem mit Johnny Mnemonic und Burning Chrome erregte William Gibson erste Aufmerksamkeit, auch bei seinen literarischen Kollegen. Die Kurzgeschichten wurde in Newslettern und Magazinen empfohlen, als „bahnbrechend“ und „erfrischend“ bezeichnet. Bruce Sterling, der später mit Schismatrix bekannt wurde, hält sie noch heute für die besten Werke des Cyberpunk überhaupt. Zwischen Ende 1981 und Anfang 1982 erhielt Gibson eine Anfrage von Terry Carr, dem Herausgeber der Ace Science Fiction Specials . In dieser Buchreihe erschienen Kurzgeschichtensammlungen und Debütwerke vielversprechender, oft junger oder ausländischer Science-Fiction- und Fantasy-Autoren. Dazu gehörten Stanisław Lem, Philip K. Dick, Gertrude Friedberg und William Barton. Der Herausgeber wollte auch Gibson für die Buchreihe gewinnen. Aber nicht als Autor einer Kurzgeschichtensammlung. Carr wollte, dass Gibson einen Roman schreibt, der unter dem Ace-Science-Fiction-Specials-Label erscheinen sollte. Für Gibson war das eine Riesenchance. „Ohne darüber nachzudenken, sagte ich ja“, erinnerte er sich in einem Interview . Doch Gibson war sich keineswegs sicher, ob er es schaffen würde. Außerdem gab Carr dem jungen Autor nur ein Jahr Zeit, um den Roman zu schreiben. Gibson geriet in Panik, als er realisierte, worauf er sich eingelassen hatte. „Als mir plötzlich klar wurde, dass ich mir wirklich etwas einfallen lassen musste, […] schaute ich mir die Geschichten an, die ich bereits geschrieben hatte“, sagte Gibson. Er beschloss, so weit wie möglich auf dem aufzubauen, was da war und von dem er wusste, dass es funktionierte. Ohne darüber nachzudenken, sagte ich ja. William Gibson Er konzentrierte sich also auf die Welt, die er mit Johnny Mnemonic und Burning Chrome zu erschaffen begonnen hatte: ein futuristisches, aber nicht allzu fernes Zukunftsszenario, in dem die Technik weit fortgeschritten und die Gesellschaft eine andere ist, in dem High-Tech und Low-Life aufeinandertreffen. Der Globus ist darin durch ein digitales Kommunikationsnetz verbunden. Nahezu jedes Körperteil kann durch eine mechanische oder biologische Nachbildung ersetzt oder verbessert werden. SimStims ermöglichen es, die Erfahrungen anderer so zu erleben, als wären es die eigenen. Und Firmen wie Sense/Net verfügen über die Technologie, den Geist von Menschen zu digitalisieren und als „Konstrukte“ zu konservieren. Exkurs: Was ist eigentlich Cyberpunk?! So definierend William Gibson für das Cyberpunk-Genre war, erfunden hat er es nicht. Die einzelnen Bausteine und Motive lassen sich über zwei Dekaden zurückverfolgen – bis zu William S. Burroughs Naked Lunch , einem psychedelischen Roman von 1959, in dem sich ein durch ein Insektizid vergifteter Schädlingsbekämpfer für einen Geheimagenten einer Antidrogenbehörde hält. Er handelt von Kontrollverlust, fernsteuernden Mächten und Wahrnehmung. The Female Man von Joanna Russ wird als einer der ersten Science-Fiction-Romane gesehen, der die Wandelbarkeit der eigenen Körperlichkeit und deren transformativen Kräfte erforscht, die später für viele Cyberpunk-Romane bestimmend wird. Auch das von philosophischen Überlegungen durchzogene Weltraumabenteuer Nova von Samuel R. Delany wird als Vorläufer des Genres klassifiziert: Es ist einer der ersten Romane, in dem ein Mensch über ein Implantat mit Maschinen interagiert. Wegweisend für den Stil und die oft melancholische Stimmung war Philip K. Dicks Träumen Androiden von elektrischen Schafen , das unter Regie von Riley Scott zu Blade Runner wurde, genau wie der Manga Akira von Katsuhiro Otomos, der den Prototyp der futuristische fernöstlichen Megametropole etablierte. Der Begriff Cyberpunk wurde dem Titel einer 1980 veröffentlichten Kurzgeschichte von Bruce Bethke entnommen, die selbst wenige Charakteristiken des Genres aufweist. Jedoch erkannte ihn der Medienjournalist Gardner Dozois in Artikeln für Isaac Asimov’s Science Fiction und die Washington Post als eine treffende Beschreibung für einen Stil und später ein Sub-Genre der Science Fiction, dessen Entstehung er zu beobachten meinte. Die Metropolen des 20. Jahrhunderts haben sich zu endlos erscheinenden Sprawls entwickelt, zu Megastädten wie der Boston-Atlanta Metropolenachse, Chiba City und anderen. Milliarden von Menschen leben zwischen glitzernden Wolkenkratzern, Industrieanlagen und schmutzigen Straßen, die vom Neonlicht der Werbeschilder erhellt und teilweise von geodätischen Kuppeln überspannt werden, in denen Obdachlose und Junkies hausen und andere ihr Glück suchen. Unterschiedlichste Ethnien und Subkulturen prallen aufeinander und bringen ihren eigenen Jargon und Slang mit. Die Welt ist durch die Dominanz multinationaler Konzerne zu einem ultraglobalisierten Marktplatz geworden, der kulturell homogenisiert ist. Die Polarität der internationalen Beziehungen hat sich aufgelöst. Die Megastädte und Länder der Welt werden de facto von allmächtigen Konglomeraten und Zaibatsus regiert, die vielfach von Geld- und Familiendynastien wie Tessier-Ashpool geführt werden. Deren Mitglieder residieren in den Arkologien – riesigen Gebäuden, die eigentlich eigene, in sich geschlossene Städte darstellen. Oder auf orbitalen Plattformen, wo sie durch Klonen und Kälteschlaf den Fortbestand ihrer Herrschaftslinie sichern. Administrative Aufgaben wiederum überlassen sie Künstlichen Intelligenzen auf Megacomputern wie Neuromancer oder Wintermute. Der Autor erschuf eine kaleidoskopische, fiebrige, unordentliche, aber auch unheimlich bunte und faszinierende Welt, die in ihrer Größe und Weite eine gefährliche Freiheit verspricht. William Gibson macht keinen Hehl daraus, was ihn inspiriert hatte. Der Film Escape from New York mit Kurt Russel „hatte einen echten Einfluss“, sagte er in einem Interview . Er habe sein Bild von der Zukunft stark geprägt, genau wie seine Liebe zum Punk, der vor allem in den abgefuckten Clubs seiner Gegend gespielt wurde. Dort habe er sich auch die Sprache abgeschaut. Vieles von dem, was der Leser als futuristischen Street Talk empfindet, ist laut Gibson die Sprache der Drogendealer, der Biker, aber auch von Berufsgruppen wie den Sanitätern im Toronto der späten 1960er-Jahre. Inspirationen Nicht nur bei der Welt, in der sein erster Roman spielen sollte, wollte William Gibson kein Risiko eingehen, sondern auch bei der Handlung und den Charakteren. „Ich wusste, dass ich so unerfahren war, dass ich ein traditionelles Handlungsgerüst brauchte, das sein Potenzial für erzählerische Spannung unter Beweis gestellt hatte“, so der Autor. Deshalb klaute er sich viele kleine und große Ideen vom Schriftsteller und Journalisten Robert Stone , der vor allem für Klassiker wie A Hall of Mirrors und Dog Soldiers bekannt ist. Aber auch paranoide Gangster- und Film-Noir-Streifen wie Scarface und Tote schlafen fest , die Werke des Schriftsteller Thomas Pynchons sowie franko-belgische Comic-Künstler wie Moebius hätten ihren Teil beigetragen. „Das war eine Richtung, in der ich mich wohl fühlte", so Gibson. Der Autor wollte eine verzweifelte und aufgeriebene Hauptfigur, die nicht nur in ein Abenteuer stolpert, sondern hineingetrieben wird. Auch wenn Neuromancer keine autobiografischen Züge trägt, so hat Gibson sich doch von seiner eigenen „verkorksten Jugend“ anregen lassen. Vor allem, was das Treffen falscher Entscheidungen, die „unkonzentrierte Angst“ und den „seltsamen Mangel an Affekt“ betreffe. Der Hacker Case ist in vielerlei Hinsicht das Ergebnis übereifriger Handlungen und halbherziger Entscheidungen, die ihn immer wieder in missliche Situationen bringen, aber auch neue Chancen eröffnen. Wie die, die ihm Molly Millions, die bereits in Johnny Mnemonic auftrat, und der Ex-Soldat Armitage bieten. „Ich würde Case nicht über den Weg laufen wollen“, sagte Gibson einmal dem Redakteur Rich Zahradnik. „Er ist ein Soziopath.“ Sonderlich einfach machte es sich Gibson mit dem Schreiben sonst allerdings nicht. „Die ersten zwei Drittel [von Neuromancer ] habe ich ein Dutzend Mal umgeschrieben“, sagte er in einem Interview mit The Paris Review . Schuld daran war auch Regisseur Ridley Scott. Denn im Sommer 1982, gerade als Gibson die ersten Kapitel niedergeschrieben hatte, kam Blade Runner in die Kinos. Der Autor sah sich den Film an und verzweifelte. „Ich stürmte aus dem Kino, den Tränen nahe, weil alles [in Blade Runner ] so war, wie ich es mir [für meine Neuromancer -Welt] in meinem Kopf ausgemalt hatte“, sagte Gibson. „Es war sogar besser als alles, was ich mir vorgestellt hatte.“ Er war davon überzeugt, dass Blade Runner ein riesiger Erfolg werden würde und dass ihm jeder vorwerfen würde, er habe für Neuromancer nur abgekupfert. Dass Blade Runner zunächst an den Kinokassen floppen, und erst über die nächsten Jahrzehnte zum Kultfilm avancieren würde, konnte er noch nicht wissen. Deshalb versuchte er, seine eigene Vision schriller, aufreibender und weniger verwechselbar zu gestalten. Er streute zahlreiche Markennamen, Pop- und Kulturreferenzen und sein eigenes Nischenwissen ein – von dem er hoffte, dass es zumindest bei einigen Lesern Anklang finden würde. Beispielsweise stolpert Molly Millions auf der Suche nach den Kryokammern der Tessier-Ashpools über eine Galerie, in der eine „gesprungene, staubige Glasplatte“ steht, über die sie ihre Finger klimpern lässt. Es handelt sich um La mariée mise à nu par ses célibataires, même , eine mehrere Meter hohe Glasskulptur des französischen Künstlers Marcel Duchamp, die eigentlich im Philadelphia Museum of Art stehen sollte. Außerdem strich Gibson immer wieder Passagen oder schrieb sie um, um die Handlung kohärent zu gestalten und gleichzeitig die Wendungen der Geschichte so lange wie möglich geheim zu halten. Dazu gehört, dass Case die Konstruktion von McCoy Dixie Flatline Pauley – seinem ehemaligen Mentor – aus dem Digitalarchiv der Firma Sense/Net stehlen soll. Oder die große Enthüllung, dass der ominöse Strippenzieher hinter der Mission von Case, Molly und Armitage eine Künstliche Intelligenz namens Wintermute ist, die ihre Sicherheitsbarrieren durchbrechen will. Denn sie will mit der ihr ebenbürtigen KI, ihrem digitalen Zwilling Neuromancer, verschmelzen: nicht aus Machtstreben, sondern aus der tiefen Sehnsucht heraus, eine gefühlte Unvollkommenheit zu überwinden. Gibson selbst wusste lange nicht, dass Neuromancer so enden würde. Bis kurz vor Schluss habe er „nie wirklich eine klare Vorstellung davon gehabt“, wohin er mit der Geschichte eigentlich wolle. Der Erfolg von Neuromancer Das einst mit dem Verleger Terry Carr vereinbarte Abgabedatum hielt Gibson nicht ein. Er überzog mindestens ein halbes Jahr. Doch das kam ihm vor wie Jahrzehnte – genau wie das Warten, bis Neuromancer endlich erschien. Am 1. Juli 1984 war es so weit. Sein Roman kam als Taschenbuch in die Läden, mit einem bizarren Robotergesicht unter dem Titel. Darüber ein mehrzeiliges Zitat, in dem Robert Silverberg William Gibson als einen der „aufregendsten neuen Science-Fiction-Autoren“ anpries. Die Reaktionen waren fasziniert und begeistert. Zunächst waren es vor allem Science-Fiction- und Literaturmagazine, die Neuromancer und William Gibson lobten. Vor allem für die rasante Erzählweise, die unverbrauchten Schauplätze, die neuen Motive und die kreative Sprache des Romans. Nachzügler wie Gerald Jonas von der New York Times entschuldigten sich sogar dafür, das Erstlingswerk zunächst aktiv ignoriert zu haben. „Was mich abschreckte, war, glaube ich, der Titel, der mir wie ein plumpes Wortspiel vorkam“, schrieb Jonas ein Jahr nach Erscheinen. Er habe Gibson Unrecht getan und schwärmte in der zweispaltigen Besprechung der US-Zeitung von einem „sehr auffälligen“ Stil und einer „Geschichte, die sich schneller entfaltet, als man denken kann“ – um schließlich anzumerken, dass er Neuromancer immer noch für einen schrecklichen Titel für einen Roman halte. Andere Buchkritiker auf der ganzen Welt kamen zu ähnlichen Urteilen. Bis 2016 soll Neuromancer je nach Quelle zwischen 6,5 und über 7 Millionen Mal verkauft worden sein. Vor allem aber war der Einfluss des Romans enorm. Zahlreiche Schöpfer unterschiedlichster Medien ließen sich vom Stil und der Welt William Gibsons inspirieren oder kupferten einfach dreist ab. Dazu gehören Walter Jon Williams mit Hardwired von 1986 und Bruce Sterling mit Islands in the Net aus dem Jahr 1988. Aber auch Neal Stephenson orientierte sich mit dem Metaverse-Roman Snow Crash von 1992, dem ein ähnlicher Einfluss wie Neuromancer zugeschrieben wird, eindeutig an Gibson. Genau wie Richard K. Morgan mit der Romanserie Altered Carbon und Ernest Cline mit Ready Player One . Auch Pen-&-Paper-Rollenspiele der 1980er Jahre wie Cyberpunk – Vorlage für das Computerspiel Cyberpunk 2077 – und Shadowrun lassen mehr oder weniger starke Einflüsse des Gibson-Romans erkennen. Nicht zu vergessen zahlreiche Filme. Der bekannteste? Sicherlich Matrix . Keine Dystopie William Gibson war überwältigt von den positiven Kritiken, dem plötzlichen Erfolg und der damit verbundenen Aufmerksamkeit. Obwohl er davon geträumt hatte, ein Kultautor wie James Graham Ballard zu werden, hatte er nicht geglaubt, dass er es schaffen würde. Doch in der Science-Fiction-Autorenszene der 1980er Jahre fühlte er sich fehl am Platz. Und daran hat sich auch nach 40 Jahren nichts geändert, wie er immer wieder in verschiedenen Interviews durchblicken lässt – auch, weil er sich oft falsch eingeordnet fühlte. Denn immer wieder wurden und werden Neuromancer und seine Nachfolgewerke von Kritikern, Kollegen und auch Lesern als Dystopien bezeichnet. Gibson selbst bestreitet jedoch, in seinen Romanen dystopische Zukünfte zu entwerfen. Ihm zufolge sind Dystopien sowie Utopien stets in gewisser Weise „absolut“ bei ihrer Zustandsbeschreibung. Genau das seien seine Szenarien und die Elemente von Neuromancer – und seiner anderen Romanen – jedoch nicht. Schließlich liege es auch nicht in der menschlichen Natur „irgendetwas perfekt“ zu gestalten – sei es nun im einen oder anderen Extrem. Die Biotechnologie, die technologischen Augmentierungen, die Drogen, der Cyberspace und die urbanen Megazentren in Neuromancer seien nicht inhärent negativ, sondern das Ergebnis einer organischen gesellschaftlichen und kulturellen Entwicklung. Neuromancer biete eine Welt, in der das Leben fantastisch sein kann, wenn man es sich leisten kann. Schönheit, Gesundheit, Kraft und sogar etwas wie ewiges Leben seien erreichbar für jene, die über die nötigen Ressourcen verfügen. Das betrifft jedoch nur einen Teil der Bevölkerung der fiktiven Welt. Gibson beschrieb die Welt von Neuromancer daher als „eine halb-gare Singularität“. Ein verlorener Arm kann problemlos durch eine kybernetische Replik ersetzt werden, die von außen nicht als solche zu erkennen ist, oder aber durch eine klobige Militärprothese aus russischer Produktion, die sich kaum akkurat steuern lässt und ständig Probleme macht. Doch auch sie sei besser als gar kein Arm. Nationalstaaten hätten sich zwar nicht aufgelöst, aber zu einer eng verknüpften Gemeinschaft verbunden, die einen überwältigenden und zuweilen fast schon fetischistischen erscheinenden Multikulturalismus lebt. Doch irgendwie habe es diese Gemeinschaft geschafft, sich nicht gegenseitig mit einem Atomkrieg auszulöschen. Alleine dadurch sei die Welt von Neuromancer schon den oft harschen Prognosen der Zeit, in der der Roman entstand, in positiver Hinsicht voraus. Anfang der 1980er erschienen ein dritter Weltkrieg und die atomare Apokalypse vielen Menschen sehr real. Die Realität des Cyberpunk Heute scheint der Einfluss von Neuromancer auf das Science-Fiction-Genre nahezu universell. Viele der einst revolutionären und neuartigen Elemente des Romans sind zu tropes mutiert – zu geradezu archetypischen und klischeehaften Konzepten, die sich durch ständiges Zitieren, Variieren und Persiflieren zum Standard einer klassischen Cyberpunk-Kulisse geworden sind: riesige Megakonzerne, schier unsterblichen CEOs, futuristische Drogen und implantierbare Waffen, so heruntergekommene wie einfangende Riesenstädte und psychisch und physisch kaputte Hauptfiguren, die ihr Leben am finsteren Rand der Gesellschaft wieder in den Griff bekommen wollen. Die Bausteine von Neuromancer sind inzwischen Mainstream geworden. Verfestigt werden dürfte das nicht zuletzt mit erfolgreichen Produktionen wie dem Computerspiel Cyberpunk 2077 , der dazugehörigen Anime-Serie oder der Ankündigung, dass Neuromancer als Serie auf dem Streaming-Dienst von Apple zu sehen sein wird. Wo bleibt der Neuromancer-Film? Vor 40 Jahren erschien Neuromancer , und noch immer gibt es keinen Film. Wie kann das sein? An Versuchen, den Roman auf die Leinwand zu bringen, liegt es nicht. Bereits 1986 gab es Bemühungen, einen Film anzuschieben. Jedoch fand die Produktionsfirma Cabana Boy Entertainment nicht genug Investoren , um die Rechte zu erwerben und eine Produktion zu finanzieren. In den 1990ern wurde der Videokünstler Chris Cunningham als möglicher Regisseur gehandelt. Er und Gibson trafen sich, begannen im Jahr 2000 sogar die Arbeit an einem Drehbuch. Aber Cunningham verließ das Projekt, angeblich da interessierte Studios in seine Entscheidungen eingreifen wollten . Für eine unabhängige Finanzierung fehlte das Geld. 2006 arbeitete der für seine Taylor-Swift-Musikvideos und seinen Power-Rangers -Kurzfilm bekannte Joseph Kahn an einer Neuromancer -Adaption . Vier Jahre darauf wurde der Cube -Regisseur Vincenzo Natali engagiert und steckte mindestens drei Jahre in die Vorproduktion. Mark Wahlberg und Liam Neeson hatten Interesse an Rollen im Film. Auch wollte der Transformers -Produzent Lorenzo Di Bonaventura mitwirken. Doch laut Natali fehlte letztlich das Geld. In November 2022 wurde schließlich bekannt, dass Apple eine Umsetzung als Serie für den eigenen Streaming-Dienst Apple+ plane. Das wurde zwei Jahre später bestätigt. Die Serie soll zehn Folgen haben und unter Graham Roland, Drehbuchautor und Produzent von Serien wie Fringe und Dark Winds , entstehen. Das Cyperpunk-Genre wurde so überstrapaziert, dass es in den vergangenen Jahren immer wieder totgesagt wurde. Doch zu Unrecht, wie sich herausstellte. Schon deshalb, weil sich die Realität den Welten, wie sie William Gibson in seinem Roman entwarf, angenähert hat – im Guten wie im Schlechten. Megakonzerne sind in Form von Technologiegiganten wie Google, Meta, Microsoft, Samsung, Amazon und Tencent nunmehr Wirklichkeit. Sie agieren als Unternehmen, die ihre Macht nicht nur in wirtschaftlicher Stärke sehen, sondern auch in der Möglichkeit, die Entscheidungen von Regierungen und die Entwicklung ganzer Weltregionen zu beeinflussen . Auch Personen, deren Vermögen den Staatshaushalt vieler Länder übersteigt, deren Macht und Einfluss kaum noch zu ermessen ist und die kaum noch wissen, was ihnen eigentlich gehört, existieren längst: Elon Musk, zum Beispiel, dessen privates Satellitennetzwerk Starlink den Kampf um die Ukraine beeinflusste, der sich eines der wichtigsten sozialen Netzwerke kaufte und ohne dessen Raumfahrtunternehmen SpaceX die NASA kaum noch einen Astronauten ins All schicken könnte. Oder Jeff Bezos und Brian Armstrong, die Millionen in Unternehmen investieren, die ihnen ein langes Leben oder sogar eine neue Jugend versprechen. Wie in Gibsons Roman sind Daten für viele Unternehmen und Regierungen zu einer begehrten und handelbaren Ressource geworden. Denn Daten ermöglichen den Blick in die Vergangenheit und in die Zukunft, die Vorhersage und Analyse von Verhalten und können in der richtigen Kombination zu einer Waffe werden. Zuletzt hat der Wettlauf um die Entwicklung Künstlicher Intelligenz eine Jagd nach originären Daten ausgelöst. Sie sind notwendig, um immer bessere und fähigere KI-Modelle zu schaffen – und den Weg zu wirklich denkenden Maschinen zu beschreiten, wie sie Neuromancer und Wintermute darstellen. Viele Menschen pflegen heute eine zwiespältige Beziehung zum Internet: Es wird benutzt, um uns auszuspionieren, Verbrechen zu begehen und Schaden anzurichten. Die Grenzen zwischen harmlosem Zeitvertreib und digitaler Sucht sind fließend, und es ist nicht leicht zu sagen, ob ein soziales Netzwerk nicht auch eine politische Waffe darstellt. In manchen Städten können sich nicht nur gefallene Hacker, sondern auch durchaus gutverdienende Start-up-Gründer allenfalls noch ein Leben in einem Sarghotel leisten . Neuromancer scheint damit durchaus… einiges vorausgeahnt zu haben. Vieles aus dem Roman erscheint heute erschreckend real. Nicht umsonst wird Gibson immer wieder eine geradezu prophetische Natur unterstellt, ja ihm sogar nachgesagt, er habe das Internet und andere Technologien gewissermaßen erfunden. Roman für die Zukunft William Gibson selbst verneinte stets, irgendwelche prophetischen Fähigkeiten zu besitzen. Dennoch würden ihn immer wieder Menschen fragen, welche Technologien und Entwicklungen er für die Zukunft erwarte. Eine Weile sei es sogar ein Teil seines Berufes gewesen, „um die Welt geflogen zu werden und auf jeder dieser aufwendigen Virtual-Reality-Konferenzen dabei zu sein, die irgendeine Regierung schmiss“. Jedoch habe er nie wirklich über die Zukunft spekulieren oder diese voraussagen wollen, so Gibson in einem Interview mit High Profiles . Viele Technologien in Neuromancer seien „halbgare“ Metaphern gewesen, um wage Ideen und abstrakte Vorstellung zu fassen. Seine Romanversion des Internets, die Matrix und der Cyberspace hätten wenig mit dem zu tun, was das World Wide Web in seinen Anfängen war – und noch weniger mit dem, was es heute sei. Die Konstrukte seien seine Überlegungen zu einer Existenz ohne Körper gewesen – und dazu, was es bedeuten könnte, zu einem Dasein ohne Möglichkeit zur Vergänglichkeit verdammt zu sein. Mollys Vergangenheit als „Fleischpuppe“ – jemand, der seinen eigenen Körper als ferngesteuertes Sexspielzeug vermietet, während der eigene Verstand abgeschaltet wird –, zeige wiederum, wie der menschliche Körper zur reinen Konsumware verkommen kann. Wobei Gibson einräumt, dass ihm die Idee eigentlich kam, als er den Namen der Band Meat Puppets irgendwo in einer Zeitung oder einem Magazin las und ihn einfach für „cool“ hielt. Gibson glaubt daher, dass er mit Neuromancer ein ganz spezielles und schwer greifbares Gefühl getroffen hat, das viele mit dem Aufkommen des Internets und dem Übergang von linearen zu nicht-linearen Medien und zu einer Daten- und Informationsgesellschaft verbunden haben. Der Roman erfasste den Zeitgeist jener Zeitenwende, die insbesondere Ende der 1980er und zu Beginn der 1990er sichtbar wurde, als Unternehmen wie Apple und Microsoft expandierten, erste Firmen und Privatpersonen einen Internetanschluss bekamen und Menschen im Fernsehen über die Zukunft der digitalen Gesellschaft zu spekulieren begannen. Genau deshalb scheint Neuromancer heute immer noch relevant, wenn nicht sogar noch relevanter als bei seinem Erscheinen vor 40 Jahren. Wir leben in einer Zeit, in der sich die fiktive Zukunft des Romans sowohl sichtbar als auch gefühlt zunehmend mit der gelebten Realität zu decken scheint. In der das Internet und die Datensphäre durch Technologien wie Virtual- und Augmented-Reality-Brillen zunehmend räumlich und sinnlich erfahrbar werden. In der nicht mehr nur die Supermächte der Welt, sondern auch private Unternehmen in den Weltraum streben, Raumstationen bauen und den Kosmos unter sich aufteilen wollen. In der die Vorstellung von sehenden, hörenden und lernenden Computersystemen nicht mehr Science Fiction, sondern Science Fact ist. In der die Kommunikation mit Künstlicher Intelligenz von einer futuristischen Vision zu einer fast banalen Alltagserfahrung wird. Außerdem ist es eine Zeit, in der KI sehr mächtige Unternehmen hervorbringt, die um die Vorherrschaft kämpfen, und die Machtverhältnisse in der Welt nachhaltig zu beeinflussen droht. Eine Zeit, in der davor gewarnt wird, dass Künstliche Intelligenz sogar unseren Untergang bedeuten könnte. Wie einst beim Aufkommen des Internets, der neuen Kommunikations- und Medienformen gibt es auch jetzt ein seltsames, irritierendes und manchmal auch beängstigendes Gefühl des Umbruchs, einer Zeitenwende, die bestehende Konventionen aufbrechen, alte Berufe auslöschen und neue entstehen lassen könnte. Es scheinen neue und unkonventionelle Formen des gesellschaftlichen Zusammenlebens, des Arbeitens, des künstlerischen Schaffens und des Dialogs zu entstehen. In solchen Momenten könnte der Rückgriff auf die spekulativen Themen, Konzepte und Ideen eines Romans wie Neuromancer durchaus Halt und Orientierung geben. Auch wenn – oder vielleicht gerade weil – William Gibson vieles in seinem Roman nicht als Prognose, sondern als Metapher für schwer beschreibbare Ideen und emotionale Zustände verstanden hat. Science-Fiction Kunst Michael Förtsch Leitender Redakteur Rakete Fire Rakete 0 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Klimaschutz in Japan: Nullenergiehäuser mit Wohlfühlfaktor und schwimmende Windkraftwerke | 1E9.community

    Lautstarke Klimaproteste gibt es in Japan nicht. Trotzdem hat sich die Industrienation verpflichtet, bis 2050 ihre CO2-Emissionen auf... 11. August 2023 Klimaschutz in Japan: Nullenergiehäuser mit Wohlfühlfaktor und schwimmende Windkraftwerke Lautstarke Klimaproteste gibt es in Japan nicht. Trotzdem hat sich die Industrienation verpflichtet, bis 2050 ihre CO2-Emissionen auf Null zu reduzieren. Wie? Vor allem mit neuen Technologien. Strom sollen neben Atomkraft schwimmende Windräder liefern und Gebäude sollen mehr Energie erzeugen als sie verbrauchen – ohne dabei den Komfort für die Menschen zu vergessen. Von Wolfgang Kerler „Wofür wirst du dich entscheiden?“, steht auf Englisch auf einem der Sticker, die Takashi Matsuki auf die Rückseite seines Laptops geklebt hat. Unter dem Schriftzug zeigen zwei Grafiken bunte Ausschnitte stilisierter Landschaften. Die eine stellt grüne Hänge, Wiesen, einen sonnigen Tag dar. In der Mitte steht ein Windkraftwerk. Die andere Landschaft fällt düster aus. Aus einer vertrockneten Ödnis ragen zwei Schornsteine empor. Sie blasen dunklen Rauch in den roten Himmel. Der Aufkleber fasst ziemlich gut zusammen, womit sich Takashi Matsuki seit Jahren beruflich beschäftigt. Als Reporter für die Tokioter Tageszeitung The Nikkan Kogyo Shimbun berichtet er über Umwelt- und Klimaschutz. Er begleitet den Umbau der asiatischen Industrienation – weg von fossilen Energieträgern, hin zu Wind- und Solarkraft. Vorangetrieben wird dieser Wandel in Japan weniger von lautstarken Klimaprotesten als von Regierung und Industrie. So lässt sich jedenfalls die Präsentation verstehen, die Takashi Matsuki für Journalistenkollegen aus Deutschland vorbereitet hat. Der Journalist Takashi Matsuki berichtet seit Jahren über Umwelt- und Klimaschutz. Bild: Wolfgang Kerler, 1E9 Japan ist als drittgrößte Volkswirtschaft der Welt für rund drei Prozent des globalen CO2-Ausstoßes verantwortlich. Das macht pro Kopf etwa 8,5 Tonnen pro Jahr , etwas mehr als in Deutschland. Bis 2050 will Japan CO2-neutral sein, genau wie die Europäische Union, jedoch fünf Jahre später als Deutschland. Das erste Etappenziel rückt auch in Japan näher: Bis 2030 strebt die Regierung in Tokio eine Verringerung der CO2-Emissionen um 46 Prozent gegenüber dem Jahr 2013 an. „Das Jahr 2013 wurde bewusst ausgewählt“, sagt Takashi Matsuki. Damals hätten die Emissionen ihren Höchststand erreicht. „2021 war man bei einer Reduktion um 20 Prozent.“ Um weitere Fortschritte zu erzielen, setzt Japan vor allem auf technische Innovationen. SUSTIE: Ein Haus, das mehr Energie erzeugt als es verbraucht Ortswechsel nach Kamakura, etwa eine Stunde Zugfahrt südlich von Tokio. Von außen lässt es sich kaum von anderen modernen Bürogebäuden unterscheiden. Die Fassade ist weiß, die Fenster erstrecken sich fast durchgehend über die drei Etagen. Auffallend sind höchstens die Vordächer, die über den Fensterreihen angebracht sind. Sonst: nichts Besonderes. Dennoch hat das Gebäude inmitten eines Firmengeländes einen eigenen Namen bekommen. Es heißt SUSTIE, was eine Mischung aus „Sustainability“ und „Energy“ ist. SUSTIE ist trotz seines unscheinbaren Äußeren ein Vorzeigeobjekt. Und eine Testanlage. Der japanische Industriekonzern Mitsubishi Electric baute das Bürohaus vor knapp drei Jahren nämlich nicht nur, um auf rund 6.500 Quadratmetern ein paar Hundert Angestellte unterzubringen. Mit SUSTIE soll erprobt werden, wie durch den Einsatz moderner Technik ein zertifiziertes ZEB erschaffen werden kann, ein Zero Energy Building, das im Jahresschnitt mindestens genauso viel Energie erzeugt, wie es verbraucht. „Der erste Schritt, um das zu erreichen, ist eine Vielzahl von Technologien einzusetzen, um Energie zu sparen“, erklärt Masahito Matsushita von Mitsubishi Electric. „Der zweite Schritt ist die Gewinnung von erneuerbaren Energien.“ Das Nullenergiebürogebäude SUSTIE in Kamakura, südlich von Tokio. Bild: Mitsubishi Electric Ein echtes ZEB zu bauen, das bedeutet den Energieverbrauch gegenüber einer konventionellen Bauweise um mindestens 100 Prozent zu senken. Für SUSTIE wurde in der Planungsphase sogar das weltweit noch nicht erreichte Ziel von 106 Prozent ausgegeben. Knapp 63 Prozent sollten dabei durch Energiesparen erzielt werden, die restlichen 43 Prozent durch die Gewinnung von grünem Strom. Letzteres war dabei vergleichsweise einfach zu bewerkstelligen: Auf dem Flachdach und auf den Vordächern über den Fenstern wurden Photovoltaikanlagen installiert. Um den Energieverbrauch so deutlich zu senken, mussten die Planer dagegen an vielen kleinen Stellschrauben drehen: Eingebaut wurden besonders sparsame Klimaanlagen, die dennoch angenehme Deckenhöhen erlauben, und ein Lüftungssystem mit Wärmerückgewinnung. Für die Beleuchtung wurde auf LED-Lampen gesetzt. Und die effizienten Aufzüge gewinnen Strom zurück, wenn sie nach unten fahren. Ohnehin soll Strom nur dann eingesetzt werden, wenn es nötig ist. Ansonsten soll natürliche Energie ganz direkt angezapft werden. „Das ist eine wichtige Ressource, die wir so gut wie möglich ausnutzen wollten,“ erklärt Taiki Kobayashi, der für die technische Umsetzung von SUSTIE mitverantwortlich war. Die Lüftungsanlage saugt außerhalb des Gebäudes Frischluft an, die zunächst durch unterirdische Rohre geleitet wird. Unter der Erde herrscht eine konstante Temperatur, die die Luft wärmt oder kühlt, je nach Ausgangstemperatur. Die Gemeinschaftsbereiche werden im Winter mit Wärmepumpen geheizt. Und wenn die Außentemperatur passend ist, werden automatisch die Fenster geöffnet, um frische Luft ins Gebäude zu lassen. Diese weht im Inneren durch raumhohe, aber erstaunlich schicke Radiatoren, in denen Wasser zirkuliert, wodurch sie je nach Bedarf gekühlt oder erwärmt wird. Auch die natürliche Energie der Mitarbeiter soll nicht ungenutzt bleiben. Daher sind die Treppen in die oberen Etagen prominent im Foyer platziert, während die Fahrstühle in einer Nische versteckt sind. Zusätzlich fordern Piktogramme die Menschen dazu auf, lieber zu Fuß nach oben zu gehen. Dabei geht es, zugegeben, weniger um Energiesparen. Die Bewegung soll vor allem die Gesundheit der Menschen fördern. 5.000 schwimmende Windkraftwerke pro Jahr Zurück beim Journalisten Takashi Matsuki. Er erzählt, dass die japanische Regierung Anfang dieses Jahres konkretisierte, wie sie die „Grüne Transformation“ in den nächsten zehn Jahren vorantreiben will. Insgesamt will sie 150 Billionen Yen investieren, umgerechnet fast eine Billion Euro. Mit dem Geld sollen technische Innovationen mitfinanziert werden. „Der größte Teil geht in den Mobilitätssektor“, sagt Takashi Matsuki. Mit 34 Billionen Yen soll die japanische Autoindustrie unter anderem bei der Umstellung auf Elektroautos unterstützt werden. Auch Wasserstoff und E-Fuels beziehungsweise synthetische Kraftstoffe – in Deutschland für PKW eher umstritten – gelten in Japan als zukunftsträchtig. Der zweitgrößte Posten – mit eingeplanten Mitteln von 20 Billionen Yen – ist der Ausbau der erneuerbaren Energien. Ihr Anteil an der Stromversorgung soll von den derzeit etwa 20 Prozent bis 2030 auf 36 bis 38 Prozent gesteigert werden. Einen entscheidenden Beitrag sollen dabei – angesichts der knappen bebaubaren Flächen auf den gebirgigen Inseln – Off-Shore-Windkraftwerke leisten. Allerdings nicht irgendwelche, nein, ein Konsortium japanischer Industriekonzerne hat sich zusammengetan, um vor den Küsten Tausende Windkraftwerke zu installieren, die schwimmen. „Das Gefälle an den Küsten ist sehr stark, weshalb man Windkraftanlagen nicht ohne weiteres am Grund verankern kann“, sagt Takashi Matsuki. „So kam man auf die Idee, sie schwimmen zu lassen.“ Beziehungsweise adaptierte die Idee für Japan. Vor der Küste von Fukushima wurden in den vergangenen Jahren bereits erste schwimmende Windkraftwerke installiert. Bild: Fukushima Offshore Wind Consortium Bis März 2024 sollen sieben Exemplare der 300 Meter hohen Kraftwerke gebaut werden. Bis 2030 sollen Anlagen mit einer Leistung von 10 Gigawatt installiert sein, bis 2050 gar von einem Terrawatt. „Dafür sollen ab 2030 jährlich 5.000 Windräder errichtet werden“, sagt Takashi Matsuki. „Das ist ein ziemliches Vorhaben.“ Nach dem Ausbau der Erneuerbaren folgt im Investitionsplan für Japans „grüne Transformation“ der Gebäudesektor auf Platz drei. 14 Billionen Yen sollen in die energetische Sanierung bestehender Gebäude sowie die Errichtung neuer Net-Zero-Häuser gesteckt werden, die über das Jahr hinweg keine CO2-Emissionen verursachen. Oder zumindest deutlich energieeffizienter gebaut sind als es bisher üblich war. „Hier hat Japan echten Nachholbedarf“, meint Takashi Matsuki. Womit wir wieder beim Zero-Energy-Building SUSTIE in Kamakura wären. Zertifiziertes Wellbeing – und trotzdem kein hoher Stromverbrauch Ryo Kodama von Mistubishi Electric führt Gäste aus Deutschland durch das Gebäude. Schon im Eingangsbereich sind auf einem großen Bildschirm Balkengrafiken zu sehen. Sie zeigen, wieviel Energie das Gebäude erzeugt und verbraucht und wie sehr Berechnungen und Realität voneinander abweichen. „Hier sieht man, dass die Werte im Winter fast genauso waren, wie wir sie vorhergesagt hatten“, erklärt Ryo Kodama. Doch für die Sommermonate lagen die Prognosen, die vor dem Bau gemacht wurden, daneben. „Im Sommer konnten wir sogar noch mehr Energie sparen.“ In Summe kommt SUSTIE damit auf einen 115 Prozent niedrigeren Energieverbrauch als bei einer konventionellen Bauweise… Frische Luft, die durch die Fenster hineingelassen wird, weht im SUSTIE durch diese Radiatoren und wird dabei gekühlt oder erwärmt. Bild: Mitsubishi Electric Das Gebäude erzeugt über das Jahr betrachtet also mehr Strom als es benötigt – was konkret bedeutet, dass es im Sommer auch die angrenzenden Häuser mit Energie versorgt, im Winter allerdings Strom aus dem Netz braucht. „Das Klima hier in Kamakura ist sehr typisch für Japan“, sagt Masahito Matsushita. „Wir haben einen schwülwarmen Sommer und Minusgrade im Winter, manchmal auch Schnee. Das bedeutet wir müssen jedes Jahr kühlen und heizen.“ Mit 115 Prozent Energieeinsparung qualifizierte sich SUSTIE für die Zertifizierung als ZEB, als Nullenergiehaus. Doch seine Macher wollte zeigen, dass das nicht auf Kosten des Komforts geht – und strebten daher auch noch erfolgreich die strengsten Zertifizierungen für Wellness beziehungsweise Wellbeing an. Kurz gesagt: für das Wohlbefinden der Menschen, die im Gebäude arbeiten. Das erfordert nicht nur offensichtliche Maßnahmen wie begrünte Wände oder Arbeitsbereiche, die je nach Bedürfnis unterschiedlich gestaltet sind: mit eher nüchtern möblierten Fokuszonen, in denen still gearbeitet werden kann, offen und grün gestalteten Relaxzonen, in denen man kreativ sein kann, und Dialogzonen für Kollaboration. Vor allem geht es beim Wellbeing um angenehme Temperaturen und Beleuchtung sowie um hohe Luftqualität, die durch die Belüftungsanlage und Filter sichergestellt werden soll. Permanent wird sie von Hunderten Sensoren im ganzen Haus überwacht. CO2, Radon, Ozon, sonstige Schadstoffe – alles wird gemessen. Society 5.0 Digitale Technologien, Künstliche Intelligenz, Vernetzung und die Nutzung von Daten sollen den Menschen in Japan eine lebenswerte Zukunft bescheren – die noch besser ist als die Welt der Industrie- oder Informationsgesellschaft. So lässt sich das etwas utopische Ziel der „Society 5.0“ zusammenfassen, das die Regierung 2017 in einem Masterplan formulierte. Die japanische Industrie will dazu ihren Beitrag leisten, das Nullenergiehaus SUSTIE mit Wohlfühlfaktor ist nur ein Beispiel dafür. Herausfordernd dürfte bei der Umsetzung der Society 5.0 vor allem die Demografie sein: Japans Gesellschaft altert und schrumpft – jeden Tag um etwa 2.000 Menschen. „Man kann sich vorstellen, dass Energieeffizienz und Komfort eigentlich widersprüchliche Anforderungen sind“, sagt Masahito Matsushita. Noch dazu hängen beide von vielen Faktoren ab – von Wetter über Tages- und Jahreszeit bis zur Frage, wie viele Menschen gerade wo im Gebäude arbeiten. Um alle technischen Systeme im SUSTIE darauf abzustimmen, kommen Künstliche Intelligenz und Simulationen zum Einsatz. „Es wäre unmöglich, das alles einzeln zu berechnen“, so Masahito Matsushita. Die Erfahrungen, die mit SUSTIE gesammelt werden, sollen nun auch kommerziell genutzt werden – für Nullenergiehäuser, die neu gebaut werden. „Und wir müssen all diese Technologien so weiterentwickeln, dass wir auch ältere Häuser zu Zero Energy Buildings machen können.“ „Man sollte die Ziele ambitionierter formulieren“ Wieder beim Journalisten Takashi Matsuki. Er berichtet, wieviel Geld in Japan in die Erneuerung von Stromnetzen oder den Bau von Energiespeichern gesteckt werden soll, wie die Produktion von grünem Wasserstoff vorangetrieben wird und warum auch die Förderung der heimischen Halbleiterindustrie für Japan Teil des Klimaschutzes ist. Er stellt technologische Innovationen vor, die zur Marktreife gebracht werden sollen: von Wasserstoff aus künstlicher Photosynthese, der mit von der Industrie abgeschiedenem CO2 zu Kunststoffen verbunden werden soll, bis zu besonders leichten und biegsamen Solarzellen, die günstiger als konventionelle Zellen sein sollen. Obwohl es auch in Japan zu Greenwashing komme, verpflichteten sich außerdem immer mehr Unternehmen, kommunale Verwaltungen und Forschungseinrichtungen, selbst CO2-neutral zu werden, sagt Takashi Matsuki. Einer entsprechenden Erklärung hätten sich bereits 318 Organisationen angeschlossen. „45 davon sind jetzt schon zu 100 Prozent klimaneutral“, sagt der Journalist. Doch trotz all dieser Initiativen verrät Takashi Matsuki, dass er ein bisschen neidisch auf Deutschland sei, weil Umwelt und Klima dort in der Gesellschaft diskutiert werden. „Ich würde mir hier auch mehr Bewusstsein bei den Konsumenten wünschen.“ Doch das Feedback auf die Klimaschutzstrategien von Unternehmen und Politik falle verhalten aus. Vielleicht liegt es auch daran, dass die japanischen Klimaziele aus seiner Sicht zu niedrig ausgefallen sind. „Man sollte die Ziele ambitionierter formulieren, um die Dringlichkeit zu erhöhen“, sagt er, „damit den Leuten auch klar wird, dass etwas passieren muss.“ Titelfoto von Jezael Melgoza auf Unsplash Transparenzhinweis: Wolfgangs Recherche in Japan wurde durch eine Einladung von Mitsubishi Electric ermöglicht. An die Einladung waren keinerlei Auflagen bzgl. unserer Berichterstattung gebunden. Nachhaltigkeit Energie Wolfgang Kerler Chefredakteur Rakete Fire Rakete 0 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Trainingsdaten werden knapp: Droht das Ende der rasanten KI-Fortschritte? | 1E9.community

    Hat das KI-Wettrennen sein Ende erreicht? Die Entwicklungssprünge beim Training neuer KI-Sprachmodelle werden kürzer, ihre Fähigkeiten... 17. Dezember 2024 Trainingsdaten werden knapp: Droht das Ende der rasanten KI-Fortschritte? Hat das KI-Wettrennen sein Ende erreicht? Die Entwicklungssprünge beim Training neuer KI-Sprachmodelle werden kürzer, ihre Fähigkeiten verbessern sich weniger dramatisch und spürbar. Ein Grund? Den KI-Firmen gehen die Daten aus. Was also tun, wenn es weitergehen soll? Von Michael Förtsch Als OpenAI im Mai 2023 die vierte Version seiner Sprachmodellreihe GPT vorstellte, war das Echo eindeutig. Das neue Modell übertraf die bisherigen Iterationen in vielen Disziplinen deutlich. Vor allem in Bezug auf die Fähigkeiten, kohärenten Computercode zu generieren, komplexe Fragen zu beantworten und mathematische Probleme zu lösen. Entsprechend hoch sind die Erwartungen an das nächste so genannte Foundation Model, das von OpenAI derzeit angeblich unter dem Codenamen Orion entwickelt wird. Beim Training dieses Modells soll sich allerdings ein Problem abzeichnen, vor dem viele KI-Forscher lautstark warnten: Die qualitativen Sprünge bei den KI-Spitzenmodellen werden immer kürzer. Der spürbare Fortschritt könnte sogar zum Erliegen kommen. Laut einem Bericht von The Information soll es OpenAI im zurückliegenden Jahr gelungen sein , den Trainingsprozess von KI-Modellen zu optimieren. Das derzeit in der Entwicklung befindliche Modell Orion habe demnach bereits lange vor Abschluss des Trainings eine mit GPT-4 vergleichbare Leistung gezeigt. Allerdings sei die Steigerung des Fähigkeitsumfangs und der Qualität des generierten Outputs im weiteren Trainingsverlauf im Vergleich zu früheren Modellerweiterungen und -nachfolgern deutlich weniger mess- und wahrnehmbar geworden. Insbesondere bei der Generierung von Programmiercode sei nur ein marginaler Leistungs- und Qualitätszuwachs zu verzeichnen. Das Modell sei „bei der Bewältigung bestimmter Aufgaben nicht zuverlässig besser als sein Vorgänger“, sondern teilweise sogar etwas schlechter, berichtet das Magazin unter Berufung auf OpenAI-Mitarbeiter. Derartiges soll nicht nur bei OpenAI der Fall sein, wie beispielsweise der Datenwissenschaftler Yam Peleg auf X – ehemals Twitter – berichtet . Mindestens ein weiteres bekanntes KI-Unternehmen soll nach seiner Kenntnis beim Training neuer und größerer KI-Modelle bereits an eine „massive Wand des abnehmenden Ertrags“ gestoßen sein. Selbst mit längeren Trainingszyklen und mehr Daten sei diese Mauer nicht zu überwinden. Heißt: Trotz dieser Investitionen würden die Modelle also nicht wesentlich besser. Stattdessen werde ab einem gewissen Punkt im Training ein hypothetisches Plateau erreicht, was zu einem kriechenden Trainingsfortschritt und dann zu einer praktischen Stagnation führe. Einem Bericht von The Verge zufolge soll auch das bei Google in Arbeit befindliche Gemini 2.0 hinter den internen Erwartungen und vor allem den Ankündigungen von Deepmind-Gründer Demis Hassabis zurückbleiben . Es bringe zwar viele kleine Verbesserungen gegenüber den Vorgängern, aber nicht den Leistungssprung, den sich der Suchmaschinenkonzern erhofft hatte. Eine derartige Entwicklung hatten auch der bei OpenAI ausgeschiedene KI-Forscher Ilya Sutskever und der Meta-KI-Chefwissenschaftler Yann LeCun bereits vorhergesagt . Die Daten werden knapp Einer der Hauptgründe für die Stagnation bei der Entwicklung aktueller KI-Modelle sei der Mangel an neuen und qualitativ hochwertigen Daten, sagen Experten. Die üblichen Ressourcen wie Datensätze, zum Beispiel C4 und Refined Web, frei im Internet zugängliche Magazine und Fachpublikationen, Zeitungs- und Wissenschaftsarchive, Community-Plattformen wie Reddit und Stack Overflow und andere seien praktisch erschöpft. Obwohl täglich neue Inhalte zu diesen Quellen hinzugefügt werden und einige der großen KI-Unternehmen sich Zugang zu den teilweise nicht öffentlich zugänglichen Archiven von Verlagen wie der New York Times , Reuters, Springer und AP erkauft haben, würde all dies nicht ausreichen, um weitere inkrementelle Verbesserungen zu erzielen. Diese Entwicklung kommt nicht überraschend. Bereits vor zwei Jahren warnten erste KI-Forscher in einer Studie davor , dass Trainingsdaten knapp werden könnten. Ihre Prognose: Basierend auf dem damaligen Entwicklungstempo der KI-Industrie extrapolierten sie, dass um das Jahr 2026 alle Quellen für qualitativ hochwertige Daten erschlossen und ausgebeutet sein dürften. Einige Branchenexperten waren hingegen optimistischer und prognostizieren eher das Jahr 2028 als das Jahr der Datendürre. Die Facebook-Firma Meta hat deshalb damit begonnen, die neuen Modelle ihrer LLaMA-Reihe auch mit Daten aus Quellen zu trainieren, die als qualitativ minderwertig gelten: Posts auf Facebook und Instagram . Eine weitere Möglichkeit, der Datenknappheit zu begegnen, sind sogenannte synthetische Daten. Wie das Wall Street Journal bereits im April dieses Jahres berichtete , setzt beispielsweise das KI-Start-up Anthropic seit der Opus-Version seiner Modellreihe Claude auf solche von Künstlichen Intelligenzen generierten Inhalte. Diese wurden und werden ergänzend zu klassischen Datensätzen eingesetzt. Ein ähnliches Verfahren soll auch bei Orion von OpenAI zum Einsatz kommen. Diese Methoden werden von einigen KI-Forschern durchaus kritisch gesehen. So könnten beispielsweise Social-Media-Posts als Trainingsdaten das Niveau der ansonsten verwendeten Inhalte verwässern und damit die Ausgabequalität der KI-Modelle mindern. Bei synthetischen Trainingsdaten warnen KI-Experten wiederum vor der Gefahr, dass die trainierten Modelle beginnen könnten, die Verhaltensmuster der Modelle hinter den generierten Daten zu imitieren. Es könnte aber auch zu einer Degeneration oder sogar zu einem Zusammenbruch der Modelle kommen. Experimente an der Stanford University und der Rice University haben gezeigt : Werden KI-Modelle wiederholt mit KI-generierten Daten trainiert, treten irgendwann Fehler und Artefakte in den ausgegebenen Inhalten auf. Mit fortschreitendem Training kann es zu völlig unlesbaren und damit unbrauchbaren Ausgaben kommen. Die genaue Ursache des Phänomens, das auch als Model Autophagy Disorder, Habsburg AI oder digitaler Rinderwahnsinn bezeichnet wird, ist noch nicht vollständig geklärt. KI-Forscher gehen jedoch davon aus, dass KI-generierten Daten die natürliche Diversität und Unregelmäßigkeit menschlicher Inhalte fehlt. Stattdessen basieren KI-generierte Daten auf gelernten statistischen Zusammenhängen und Mustern – „praktisch die Fingerabdrücke der Generatorarchitektur“, wie die Stanford- und Rice-Wissenschaftler sagen. Werden diese wiederholt in ein Modell eingespeist, verstärken sich die entsprechenden Muster. Das führe schließlich zu einer autophagischen Schleife . Braucht es ganz neue KI-Architekturen? Eine unmittelbare Lösung gibt es für die Herausforderungen nicht, denen die KI-Entwickler derzeit begegnen. Deshalb wurde bei OpenAI ein neues Team gegründet, das Wege finden soll, die zukünftigen Modelle trotz der begrenzten Masse an Trainingsdaten weiter zu verbessern. Angeblich gehört dazu, dass die großen Basismodelle der GPT-Reihe durch spezialisierte kleinere Modelle ergänzt werden, die bei Spezialfragen aktiviert werden – ähnlich wie ChatGPT bereits um die Internetsuche erweitert wurde, um zeitaktuelle Fragen zu beantworten und auf Wissen zuzugreifen, das im Modell nicht enthalten ist. Dies könnte zum Beispiel für Bereiche wie Mathematik, Medizin oder Fremdsprachen der Fall sein. Einige KI-Forscher sehen auch die Option, einfach die bereits vorhandenen Trainingsdaten effektiver zu nutzen. Denn die derzeitigen Trainingsprozesse seien ineffizient, was dazu führe, dass ein Teil der Inhalte nicht im Modell ankomme . Daher bräuchte es alternative oder zusätzliche Ansätze, um Modelle nachhaltiger aufzubauen. Einer könnte das sogenannte Curriculum Learning sein, bei dem Trainingsdaten so strukturiert werden, dass sie aufeinander aufbauen. Einem KI-Modell werden etwa zunächst die Grundlagen der Biologie beigebracht, bevor es mit Gen-Manipulation konfrontiert wird. Ein verwandter Ansatz ist das Teacher-Student Curriculum Learning, bei dem ein KI-Modell den Lernprozess dynamisch steuert und Trainingsmaterial auf Basis des Lernerfolgs zuweist. Ob diese Methoden jedoch erfolgreich eingesetzt werden können, muss sich erst noch zeigen. Auch die Architektur hinter den aktuellen Sprachmodellen wird hinterfragt: die sogenannten Transformer, ohne die es den aktuellen KI-Hype nicht gäbe. Potentielle Nachfolger und Weiterentwicklungen dieser Architektur sollen mehr aus dem Lehrmaterial herausholen . Als aussichtsreiche Kandidaten gelten beispielsweise Mamba , Graph Neural Networks , Liquid Neural Networks oder Extended Long Short-Term Memory . Sie sollen flexibler mit Informationen umgehen und diese miteinander verknüpfen können - und das auch noch energieeffizienter und schneller. Bis sich eine der Architekturen als möglicher Erbe der Transformer herauskristallisiert, dürfte allerdings noch einige Zeit vergehen. Ilya Sutskever, der nach seinem Ausscheiden bei OpenAI das Start-up Safe Superintelligence – kurz SSI – gegründet hat, erklärte gegenüber Reuters bezüglich den aktuellen Entwicklungen, dass die KI-Industrie nach Jahren der bloßen Skalierung von KI-Modellen „nun wieder in der Ära der Wunder und Entdeckungen angekommen ist“. Es brauche also wieder mutige Forschung und neue Ansätze, um die sich abzeichnenden Grenzen und Hindernisse zu überwinden: „Jeder ist auf der Suche nach dem nächsten Ding“. 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Přihlásit Kommentar verfassen Kommentar verfassen Podělte se o vaše myšlenky Buďte první, kdo napíše komentář. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Was sind eigentlich Prompts für ChatGPT & Co. – und wie schreibt man gute Prompts? | 1E9.community

    ChatGPT, Midjourney, DALL-E 2, Stable Diffusion, Bard und andere KI-Werkzeuge scheinen gerade eine Renaissance der Künstlichen... 15. Februar 2023 Was sind eigentlich Prompts für ChatGPT & Co. – und wie schreibt man gute Prompts? ChatGPT, Midjourney, DALL-E 2, Stable Diffusion, Bard und andere KI-Werkzeuge scheinen gerade eine Renaissance der Künstlichen Intelligenz einzuläuten. Sie verändern, wie wir Antworten auf Fragen suchen und drohen gar, Gesellschaft, Kunst und Kultur umzukrempeln. Bedient werden diese Tools mit den sogenannten Prompts – Befehlen in Textform. Aber wieso eigentlich? Und wie schreibt man gute Prompts? Von Michael Förtsch In den vergangenen Monaten sind Werkzeuge basierend auf Künstlicher Intelligenz so stark ins Bewusstsein der Gesellschaft geraten wie nie zuvor. Der Chatbot ChatGPT hat sich seit seinem Start im November 2022 zu einer der meistgenutzten Web-Applikationen überhaupt entwickelt. Rund 100 Millionen Nutzer hat das von OpenAI entwickelte Tool schon . Und Text-zu-Bild-Generatoren wie Midjourney, DALL-E 2 und Stable Diffusion mischen derzeit die Kunst- und Kulturwelt auf, indem sie es jedem erlauben, mal mehr, mal weniger faszinierende Bilder zu erschaffen. Weitere Tools sind schon absehbar – etwa um Musik , Animationen und sogar ganze Videos zu erzeugen. Eines haben diese neuen generativen KI-Applikationen alle gemeinsam: Gesteuert werden sie mit sogenannten Prompts. Bei einem Prompt handelt es sich im Grunde lediglich um einen Anweisung, die einem KI-System in Textform vermittelt, was es generieren und ausgeben soll. Also: Was der Nutzer haben will. Es kann sich dabei um einen oder mehrere Sätze, komplexe Befehle über mehrere Zeilen oder auch nur eine Ansammlung von Stichworten handeln. Das funktioniert, da Modelle wie das hinter ChatGPT stehende GPT-3 und die Bild-Modelle von Midjourney, DALL-E 2 oder Stable Diffusion über eine Art assoziatives Gedächtnis verfügen. Sie wurden mit immensen Mengen an Texten respektive Bildern und auch dazugehörigen Kontextinformationen – wie etwa Verschlagwortungen und Inhaltsangaben – trainiert. Von der Künstlichen Intelligenz erfasste Muster und statistische Beziehungen der Eingangsdaten wurden dabei im Datenmodell in Form in eines sogenannten latent space kodiert. Dieser latent space ist ein digitaler Raum, der es der Künstlichen Intelligenz ermöglicht, gelernte Konzepte mit verschiedenen Merkmalen zu verknüpfen. Das Aussehen eines Apfels ist etwa mit den Eigenschaften rund und rot verknüpft. Aber das Modell weiß , dass beides nicht absolut ist, sondern auf einem Spektrum existiert – und es etwa auch Äpfel gibt, die mehr oder weniger rund oder rot oder sogar würfelförmig und grün sind. Es versteht , dass ein Schiff normalerweise auf dem Wasser fährt, es aber auch ohne Wasser existieren kann. Oder, dass zu einem Ehemann oft eine Ehefrau gehört, aber nicht ausschließlich. Der Datenraum ermöglicht es einer Künstlichen Intelligenz ebenso, bei einem Rap-Song von Eminem den Stil getrennt vom Inhalt zu erfassen. Entsprechend können die im Model gespeicherten Informationen selektiv abgerufen und neu kombiniert werden. Das macht aktuelle KI-Modelle so mächtig, flexibel und dynamisch – und Prompts zu einem interessanten Werkzeug. Denn erst durch sie lassen sich die Fähigkeiten und Daten der KIs effektiv nutzen. Wobei es insbesondere bei Text-Generatoren so einige bedenkenswerte Probleme und Herausforderungen zu beachten gibt. Aber prompt! ChatGPT beziehungsweise GPT-3, Midjourney, Stable Diffusion und DALL-E 2 sind nur einige der aktuellen KI-Tools, die sich mit Prompts steuern lassen. Craiyon und ChatSonic sind ebenfalls schon verfügbar. Claude , der Bard getaufte Chatbot von Google und andere sind schon absehbar. Sie alle sind verschieden. Sie basieren auf unterschiedlichen Modellen, wurden mit unterschiedlichen Datensätzen, Zielen und Spezialisierungen trainiert. Dennoch ist es bei allen so: Nur wer gute Prompts komponiert, kann auch gute Ergebnisse bekommen und die Möglichkeiten der KI-Modelle wirklich ausloten. Erste Unternehmen suchen daher bereits Prompt-Ingenieure, die etwa erkunden sollen, wie KI-Systeme auf verschiedene Prompts reagieren; die Prompts konstruieren, die bestimmte Aufgaben effektiv erfüllen können und es dadurch ermöglichen, KI-Modelle für verschiedenste Aufgaben zu verwenden. Und Studierende messen sich in Prompt Battles , in denen der beste Prompt gefunden werden muss, um das schönste Bild oder den besten Text zu einem Thema zu generieren. Aber was macht nun eigentlich einen guter Prompt aus? Das kommt ganz darauf an, was das Ziel ist. Prompts können vielfältige Formen haben. Mit ChatGPT lässt sich etwa in einem menschlichen Dialog kommunizieren. Der Chatbot versteht gut natürliche Sprache, so dass mit ihm über einen Frage-Antwort-Rhythmus auf das Ziel hingearbeitet werden kann. Doch idealerweise ist ein ausufernder Dialog nicht notwendig, sondern ChatGPT liefert nach möglichst wenigen Nachfragen oder sogar einem einzigen Prompt genau das, was der Nutzer möchte. Dafür ist es notwendig, dem KI-Werkzeuge präzise zu vermitteln, welche Informationen abgerufen und wie sie aufbereitet werden sollen. Hierbei kann eine Aufforderung wie „Nenne zwei traditionelle norditalienische Gerichte und die zugehörigen Rezepte“ bereits seinen Zweck erfüllen. Aber besser ist es natürlich, mögliche Einschränkungen gleich mitzuliefern. Etwa: „Nenne zwei traditionelle norditalienische Gerichte und die Rezepte in klassischer Kochbuchform. Die Gerichte sollen alkohol- und glutenfrei sein und sich in unter einer Stunde zubereiten lassen. Ein Gericht soll ein Dessert sein.“ Mit solchen Einschränkungen und Vorgaben lassen sich auch ziemliche komplexe Ausgaben generieren. ChatGPT kann etwa aufgefordert werden, eine Persona zu emulieren oder eine besondere Textform zu verwenden. Beispielsweise: „Schreibe im Stil eines deutschen Lyrikers des 18. Jahrhunderts.“ ChatGPT kann vorgeschrieben werden, in welchen Schritten eine Aufgabe erfüllt werden soll. Beispielsweise: „Liste die von Touristen am meisten besuchten Orte in Bayern auf. Filtere anschließend jene Orte aus, die mit der Bahn weiter als 30 Minuten von München entfernt sind. Erstelle anschließend eine Reiseroute und liste für jeden Ort die Top 5 der wichtigsten Sehenswürdigkeiten. Liste ebenso Details zu den Sehenswürdigkeiten.“ ChatGPT kann eine Zielsetzung vorgegeben werden. Etwa: „Das Ziel dieser Reise ist es, möglichst viele Sehenswürdigkeiten an einem Tag zu besuchen.“ oder „Das Ziel ist es, kulturell besonders wertvolle Orte zu besuchen, die architektonisch interessant sind.“ ChatGPT kann ein Format vorgegeben werden, in dem das Ergebnis präsentiert werden soll. Beispielsweise: „Präsentiere die Reiseplanung im Stil eines Liebesbriefes.“ oder „Präsentiere die Reiseplanung im Stil eines Lonely Planet Reiseführers.“ Mit einem ausführlichen, detaillierten und langen Prompt lassen sich also in Teilen sehr gehaltreiche und praktische Ergebnisse erzielen. Aber ein langer Prompt ist nicht automatisch ein guter Prompt. Und es existieren auch Grenzen. Denn für die Verarbeitung durch die Modelle werden Eingaben in sogenannte Token unterteilt. Bei einem Token kann es sich um ein Wort, ein Bruchstück eines Wortes oder auch Satz- und Sonderzeichenzeichen handeln. Der sogenannte Tokenizer von OpenAI zeigt, wie Prompts von ChatGPT beziehungsweise GPT-3, aber auch von anderen KI-Tools separiert werden. Ein bis zwei kurze englische Sätze entsprechen etwa 30 Token; zwei deutsche Sätze gleichen Inhalts können zuweilen doppelt so viele Token umfassen. OpenAI selbst gibt für GPT-3 und damit auch ChatGPT ein Limit von 4.097 Token an. Text, der über diese Grenze hinausgeht, wird von der Künstlichen Intelligenz ignoriert. „Das Limit ist derzeit eine technische Einschränkung“, sagt OpenAI selbst dazu . „Aber es gibt oft kreative Möglichkeiten, Probleme innerhalb des Limits zu lösen, zum Beispiel durch Verdichtung der Eingabeaufforderung, Aufteilung des Textes in kleinere Teile und so weiter.“ Jailbreak? KI-Systeme mit Sprachmodellen lassen sich in begrenztem Umfang auch programmieren . Ihnen können für laufende Dialoge unter anderem Wenn-Dann -Regeln vorgegeben werden, wodurch sie auf Situationen und bestimmte Ereignisse auf eine konsistente Weise reagieren. Dadurch lassen sich beispielsweise simple Text-Abenteuer realisieren oder auch begrenzte Automatisierungsprozesse abwickeln . Das funktioniert in bisherigen Tests und Experimenten überraschend gut, aber nicht immer vollkommen zuverlässig und problemfrei. Große Sprachmodelle nach dem Vorbild von GPT-3 beziehungsweise ChatGPT sind sehr vielseitig, aber auch sehr umstritten – und können auch Informationen ausgeben, die theoretisch missbraucht werden oder Menschen vor den Kopf stoßen können. OpenAI hat ChatGPT daher einen Filter vorgeschaltet, der verhindern soll, dass der Chatbot etwa Ratschläge für kriminelle Handlungen gibt und Obszönitäten oder allzu umstrittene Äußerungen tätigt. Wie Nutzer aber schnell feststellten , kann der Filter mit den richtigen Prompts ausgehebelt werden. Zumindest bis der Filter angepasst wird. Doch auch dann dürften sich Möglichkeiten finden lassen, solche Sprachmodelle zum Fluchen zu bringen. Eine umfangreiche Einführung mit vielen weiteren Techniken und Tipps zum Umgang mit Sprachmodellen findet sich auf Learn Prompting . Prompt zum Bild Derzeit mischen Text-zu-Bild-Generatoren die Kunst- und Kulturwelt auf. Auch sie liefern nur wirklich gute und überzeugende Ergebnisse, wenn der passende Prompt gesetzt wird. Grundsätzlich lässt sich auch mit Midjourney, DALL-E 2 und Stable Diffusion in natürlicher Sprache kommunizieren – auch in Deutsch, wobei Englisch besser geeignet ist. Ein Satz wie „Generiere ein Foto von einem Hund, der auf einer Parkbank sitzt“ liefert also bereits ein durchaus verwertbares Bild. Wer jedoch gezielt ein Bild erschaffen möchte, muss auch hier präzise sein. Viele KI-Künstler beginnen ihren Prompt mit dem Medium, das ihr Werk emulieren soll. Beispielsweise ein Foto, ein 3D-Render-Bild oder eine Malerei. Diese Spezifikation kann natürlich noch deutlich konkretisiert werden. Beispielsweise kann ein Foto auch ein „1950s black & white photo“, ein „yearbook photo“ oder „Polaroid photo“ sein und eine Malerei ein „oil painting“ oder „watercolour painting“. Anschließend werden nach einem Komma oder einfach einem „of“ das Objekt und seine Umgebung beschrieben. Etwa „a dog on a park bench in a garden“. Ein solcher Prompt resultiert bereits in einem deutlich eindeutigeren Bild, das weniger zufällige Elemente enthält. Allerdings lässt sich noch viel mehr konkretisieren, um das Ergebnis zu verfeinern, wenn man weiß, welches Ergebnis gewollt ist. Zu diesem Zweck können noch weitere sogenannte Modifikatoren hinzugefügt werden. Das geschieht in den meisten Fällen durch einfache Stichpunkte, die mit Kommas getrennt werden. Füllwörter werden vermieden und Verben nur eingesetzt, wenn sie der Beschreibung des Bildinhalts zuträglich sind. Mit Modifikatoren wie „ bokeh“ , „ shallow dof“ oder „blurry background“ lassen sich etwa unscharfe Hintergründe erzeugen, die Bildern eine professionellere Optik verleihen Eine eher künstliche Optik lässt sich mit Wortkombinationen wie „digital art“ , „3D rendering“ , „Unreal Engine“ oder „Octane render“ erreichen. Auch Bildwinkel und Brennweite lassen sich in vielen Fällen über Modifikatoren steuern. Insbesondere Midjourney und Stable Diffusion reagieren gut auf Stichworte wie „wide angle“ , „fish eye lens“ oder Brennweitenangaben von Objektiven wie „23mm lens“ . Aufgrund von Unklarheiten über Urheberrechte kontrovers, aber funktional sind auch die Namen von Künstlern, um die Optik eines Bildes zu beeinflussen. Für Stable Diffusion existiert eine Übersicht aller bekannten Künstler , deren Werke für das Training von Stable Diffusion in den Versionen 1.4 und 1.5 genutzt wurden. Bei Modifikatoren ist Experimentierfreude notwendig. Denn nicht jeder Modifikator wirkt zuverlässig und immer im gleichen Maße. Manchmal können sie einen gewaltigen Einfluss haben, manchmal fast keinen. Denn zuweilen können sich Konstellationen verschiedener Stile, Bildinhalte und Modifikatoren ausschließlichen. Das hängt auch vom jeweiligen Text-zu-Bild-Generator ab. Sie besitzen allesamt ihre Eigen- und Besonderheiten. Auch was Möglichkeiten jenseits des eigentlichen Prompt-Inhalts angeht. Bei Midjourney lässt sich beispielsweise über das Kommando ‐‐s[hier eine Zahl zwischen 625 und 60000] der Grad der Stilisierung modifizieren – also das Ausmaß, wie kreativ oder wild Midjourey den Prompt interpretieren soll. Das Äquivalent bei Stable Diffusion nennt sich Guidance Scale und wird in verfügbaren Nutzungsoberflächen meist über einen Schieberegler gesteuert. Ebenso kann mit dem Kommando ‐‐v[hier Zahl zwischen 1 und 4] zwischen den bisherigen Modellversionen von Midjourney beziehungsweise dessen Stilen *gewechselt werden. Bei Stable Diffusion können klassische Klammern um einen Modifikator die Aufmerksamkeit des Modells auf diesen verstärken und eckige Klammern diesen abschwächen. Umklammerte Worte beeinflussen das Bild also stärker beziehungsweise schwächer. Es gibt noch zahlreiche weiter Tricks und Kniffe, die KI-Künstler nutzen. Sie separieren Modifikatoren mit senkrechten Strichen oder Semikolons, setzen Ausrufezeichen, experimentieren mit dem Weglassen und Hinzufügen von zusätzlichen Leerzeichen, schreiben Worte gezielt falsch und vieles mehr. Wobei bei nicht allem wirklich gesichert ist, ob diese Tricks tatsächlich eine Wirkungen entfalten – und wenn, wieso eigentlich. Manches erscheint willkürlich oder sogar magisch . So manche KI-Künstler vergleichen das Komponieren eines Prompts daher mit Alchemie oder dem Kochen eines Gerichtes, bei dem nicht klar ist, welches Gewürz nun den Ausschlag gibt. Prompt für die Zukunft Es existieren zahllose Möglichkeiten mittels Prompts auf die Informationen eines Maschinenlernmodells zuzugreifen. Manche davon werden wohl erst noch durch enthusiastisches Experimentieren und hartnäckiges Ausprobieren entdeckt werden – oder durch merkwürdige Zufälle, die mit ihren Ergebnissen auch irritieren können. Auch Entwickler von KI-Systemen räumen ein, dass Maschinenlernmodelle immer noch eine black box darstellen; es also nicht gänzlich sicher und nachvollziehbar ist, wie KI-Systeme gelernte Informationen gewichten, welche Muster sie entdeckten, wie sie diese verarbeiten und dann kodieren. „Der Textraum, den das neuronale Netz sieht, ist viel, viel größer als unsere natürliche Sprache“, sagte Björn Ommer gegenüber 1E9 , einer der ursprünglichen Co-Entwickler von Stable Diffusion. „Veränderungen der Sprache, die nicht natürlich-sprachlich sind, produzieren daher auch Bilder – sinnvolle und weniger sinnvolle. Dieser Teil des Textraumes ist allerdings nicht mehr wirklich trainiert. Was darin passiert, wird immer wilder, je weiter ich mich von der natürlichen Sprache wegbewege.“ Daher ist ebenfalls nicht ganz klar, mit welchen Befehlen sich diese zu Tage fördern lassen. Das ist auch der Grund, warum KI-Entwickler mit dem Phänomen der Halluzinationen hadern. Hierbei produziert eine Künstliche Intelligenz Ergebnisse, die eigentlich nicht im Einklang mit den Trainingsdaten stehen. Der KI-Chatbot ChatGPT erfindet etwa Quellenangaben für historische Daten, die falsch sind, aber überzeugend wirken. Außerdem entdeckten KI-Künstler im vergangenen Jahr, dass sich über den Prompt „Crungus“ mit dem Text-zu-Bild-Generator Craiyon die Darstellungen eines schauerlichen Monsters erzeugen lässt. Jedoch wurde das Modell nicht mit Bildern einer solchen Kreatur und diesem Namen trainiert . Dies könnte laut KI-Entwicklern eine Halluzination sein. Denkbar ist ebenso, dass eine Assoziation mit dem als Monster auftretenden Sänger Oderus Urungus stattfindet, die durch die Aufteilung des Wortes „Crungus“ in die Token in „cr“, „ung“ und „us“ provoziert wird. Die Gruseldame Loab , die eine KI-Künstlerin zufällig entdeckte, als sie in Midjourney eigentlich ein Bild mit „dem Gegenteil von Marlon Brando“ zu generieren versuchte, ist wohl auf die Versuche der KI zurückzuführen, auf eine unsinnige Eingabe ein Ergebnis zu liefern. Wie auch immer: Das Schreiben von Prompts wird von einigen KI-Entwicklern, Firmen und Medienverantwortlichen bereits als eine wichtige Fähig- und Fertigkeit für ein KI-dominiertes Zeitalter gesehen. Ebenso wie einst das gezielte Suchen im Web oder der Umgang mit Social-Media-Diensten das Internet- und Social-Media-Zeitalter prägten. Einige sehen sogar eine Art sportliche Disziplin entstehen. Ob das wirklich so ist, das wird sich noch zeigen müssen. Sicher ist jedoch, dass sich mit der Komposition von guten Prompts für große Sprachmodelle, Text-zu-Bild-Generatoren und zukünftig wohl auch ganz anderen KI-Werkzeuge überraschende und beeindruckende Werke erzeugen lassen. Und, dass es einfach viel Spaß machen kann, diese KI-Werkzeuge mit immer neuen Prompts zu konfrontieren, um zu sehen, was dabei herumkommt. 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 0 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • „Größte Veränderung des Web seit dem Web selbst“: Warum Flipboard ins Fediverse zieht | 1E9.community

    Gehört die Zukunft von Social Media nicht Meta, X oder TikTok, sondern dezentralen Alternativen wie Mastodon, PixelFed und anderen, die... 20. November 2024 „Größte Veränderung des Web seit dem Web selbst“: Warum Flipboard ins Fediverse zieht Internet Wolfgang Kerler Chefredakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Die Blockchain und die Wissenschaft: Kommt da zusammen, was zusammen gehört? | 1E9.community

    Die Blockchain ist eine Technologie, die gefeiert, kritisiert und beschmunzelt wird. Derzeit wird sie vor allem genutzt, um virtuelle... 7. Januar 2025 Die Blockchain und die Wissenschaft: Kommt da zusammen, was zusammen gehört? Die Blockchain ist eine Technologie, die gefeiert, kritisiert und beschmunzelt wird. Derzeit wird sie vor allem genutzt, um virtuelle Währungen zu handeln und Affenbilder zu tauschen. Viele andere Anwendungsversuche sind bislang gescheitert. Doch ein aus Deutschland stammendes Projekt soll zeigen, dass die Blockchain in der Wissenschaft ein Zuhause und eine sinnvolle Anwendung finden kann. Von Michael Förtsch Wofür taugt eigentlich die Blockchain? Für die Transaktion von digitalen Werten wie Kryptowährungen und NFTs, das hat sich in den vergangenen Jahren bereits gezeigt. Aber sonst haben sich die Träume von anderen Anwendungsfeldern immer wieder in Luft aufgelöst – oder haben zumindest nicht wirklich abgehoben . Erst im November 2022 wurde TradeLens eingestellt, das Blockchain-Projekt des Frachtmultis Maersk, der den globalen Handel in das dezentrale Datenbanksystem überführen wollte. Bereits zuvor gingen Initiativen unter, um Kunst und seltene Erden auf die Blockchain zu hieven. Daher wird seit Jahren immer wieder gescherzt, die Blockchain sei eine Lösung auf der dauerhaften Suche nach einem Problem. Doch geht es nach den Machern der Initiative Bloxberg ist das so nicht richtig. Sie haben in der Blockchain eine echte Lösung für echte Probleme in der Welt der Wissenschaft erkannt – und diese Lösung wird von immer mehr Forscherinnen und Forschern genutzt. „Wir waren gar nicht heiß darauf, jetzt unbedingt die Blockchain einzusetzen“, sagt Friederike Kleinfercher im Gespräch mit 1E9. Sie ist Informatikerin, ehemalige Software-Entwicklerin und eine der Gründerinnen des Digital Labs der Max-Planck-Gesellschaft, das neue Technologien und Anwendungen erkunden sollen. „Wir forschen nicht an diesen Dingen, sondern wir schauen, ob sich etwa das Internet of Things, Tablets oder auch die Blockchain für die Wissenschaft nutz- und gewinnbringend einsetzen lassen“, sagt Kleinfercher. Denn die Institute der Max-Planck-Gesellschaft und ihre Partner seien sehr vielfältig, sehr breit verteilt und es gebe immer Möglichkeiten, die Effizienz und Zusammenarbeit zu verbessern. „Daher fragen wir unsere Wissenschaftler auch immer wieder, was sie vermissen oder was sie bräuchten“, so Kleinfercher. „Wir haben immer wieder von unseren Wissenschaftlern gehört, sie wären gerne bereit, Forschungsdaten schneller zu teilen, wenn sie diese für sich sicher und nachweisbar registrieren könnten.“ Oft würden Hypothesen aufgestellt und Experimente durchgeführt, die interessante Ergebnisse produzieren, aber natürlich nicht sofort in einer ausführlichen Studie publiziert werden können. „Oder die Wissenschaftler wollen einfach vermerkt wissen, dass ein Versuch zu diesem oder jenem Zeitpunkt abgelaufen ist“, meint Kleinfercher. „Einfach damit andere Forscher informiert sind und sich auf kommende Ergebnisse vorbereiten können.“ Die Forscher wünschten sich also ein System oder eine Datenbank, in der sie Ereignisse mit einem Zeitstempel und einem Identifikator hinterlegen könnten, einen Proof of Existence quasi – möglichst nachhaltig und manipulationssicher. Zwar verfügt die Max-Planck-Gesellschaft über ein System für die Ausstellungen von Zertifikaten für Forschungsergebnisse. Aber diese haben primär innerhalb der Forschungsgemeinschaft einen Wert – und nur begrenzt darüber hinaus. „Daher dachten wir, ein dezentrales System wie die Blockchain könnte die Lösung sein“, sagt Kleinfercher. „Wir sind von der Seite des Problems herangegangen – und sahen da: Das wäre etwas.“ Skepsis und Zweifel Das Team hinter der Bloxberg-Initiative begann mit einem kleinen Experiment: einem Eintrag, der in die Bitcoin-Blockchain geschrieben wurde. Ein Machbarkeitsbeweis und ein Beispiel, wie Einträge für die Forschung gesichert werden könnten. Die dazu befragten Wissenschaftler waren zu Beginn nicht wirklich überzeugt. „Sie sagten: Bitcoin, das ist Geldwäsche, das ist Darkweb, das ist Umweltverschmutzung, damit wollen wir nichts zu tun haben“, erinnert sich Kleinfercher. Sie und ihr Team nahmen die Bedenken durchaus ernst. Außerdem erkannten sie, dass die Bitcoin-Blockchain ganz handfeste Probleme hat – sie ist vergleichsweise langsam und für eine wissenschaftliche Nutzung zu teuer, was Transaktionsgebühren betrifft. „Wir schauten uns also um, ob es vielleicht schon Blockchains aus dem wissenschaftlichen Bereich gibt“, so die Informatikerin. „Das gab es damals aber nicht wirklich.“ Das Team habe nur einige Projekte ausmachen können, die zwischen einzelnen Forschungseinrichtungen oder auf nationaler Basis stattfanden. „Eine globale Blockchain für die Wissenschaft hat es nicht gegeben“, so Kleinfercher. „Also dachten wir: Na gut, dann müssen wir das eben selbst machen.“ 2018 habe ihr Team daher begonnen, andere Forschungseinrichtungen aus aller Welt abzutelefonieren, um Kollaborateure zu finden. „Wir haben ihnen den use case erklärt“, beschreibt die Informatikerin. „Den hat sofort jeder verstanden; sie wussten, dass das für sie Sinn macht.“ ,,Eine globale Blockchain für die Wissenschaft hat es nicht gegeben. Also dachten wir: Na gut, dann müssen wir das eben selbst machen. Friederike Kleinfercher Ganze elf Forschungseinrichtungen sagten sofort zu, bei dieser zu dieser Zeit noch namenlosen Blockchain für die Wissenschaft mitzumachen. Darunter Universitäten wie die Carnegie Mellon, die Universität Kassel, die ETH Zürich, die IT University of Copenhagen und die University of Sarajevo. Nun musste die Blockchain nur noch entwickelt werden. Von Null anfangen musste und wollte die Entwicklergruppe aber nicht. Blockchains, die quelloffen waren und dadurch adaptiert und den eigenen Wünschen angepasst werden konnten, gab es zu dieser Zeit schließlich bereits zuhauf. Da entschied sich das Team für eine der bewährtesten und meistgenutzten Blockchains. „Bloxberg ist ein Fork von Ethereum“, erklärt Kleinfercher. „Das heißt, wir haben den Ethereum-Code genommen und selbst genutzt – und das, weil darauf schon viele Anwendungen laufen, die uns auch wichtig waren.“ Allzu große Anpassungen seien nicht nötig gewesen, denn Ethereum sei bereits stabil und zuverlässig gelaufen. Lediglich ein Aspekt musste dringend abgewandelt werden. Und zwar der sogenannte Konsensmechanismus, der bestimmt, wer die Transaktionen auf der Blockchain bestätigen kann. Das waren bei Ethereum durch den Mechanismus Proof of Work um 2018 noch die Miner, die mit starken Computern um die Wette rechneten. Erst 2022 hat sich das durch den sogenannten Merge geändert . Bei Bloxberg wurde hingegen ein Proof-of-Authority -Verfahren einprogrammiert, durch das lediglich lizenzierte Computer der Konsortiumsmitglieder auf der Blockchain das Sagen haben. Derzeit hat die Bloxberg-Blockchain 42 sogenannte Knotenpunkte, die das Netzwerk am Leben erhalten. „Was sie einbringen, das ist keine Rechenpower und sind keine Coins, sondern das ist die Reputation der Forschungseinrichtungen“, sagt Kleinfercher. „Es ist immer und zu jedem Zeitpunkt klar, wer welche Transaktion validiert hat – im Klartext mit Universität und Namen.“ Eine Blockchain mit Potential Mitte 2018 wurde die Bloxberg-Blockchain implementiert und startklar gemacht. Im Frühling 2019 einigten sich die Teilnehmer der Blockchain auf ein gemeinsames Konzept, auf die Verwaltung der Blockchain und ließen den ersten Block schreiben. Seitdem läuft die wissenschaftliche Blockchain ohne größere Probleme oder Herausforderungen , wie Friederike Kleinfercher beschreibt. Denn sie funktioniert tatsächlich nicht so viel anders als die Ethereum-Blockchain selbst. Auch bei Bloxberg gibt es eine digitale Währung, die Bergs. Diese haben aber keinen Geldwert und werden nicht geschürft, sondern über eine digitale Ausgabestelle in kleinen Chargen einfach erzeugt, wo sich die Teilnehmer des Netzwerks jeden Tag eine gewisse Menge abheben können. ,,Bloxberg ist ein Fork von Ethereum. Friederike Kleinfercher Die Bergs werden an das Netzwerk gezahlt, um Transaktionen durchzuführen. Die können sehr vielfältig sein. Es gibt Anwendungen, um Forschungsergebnisse und Hypothesen auf der Blockchain zu zertifizieren oder um diese durch die Blockchain zu verifizieren. Dabei werden diese Ereignisse oder Daten in einen einmaligen Code, einen sogenannten Hash, umgewandelt und durch einen Smart Contract hineingeschrieben. „Man kann auch Titel, Autorenname, Forschungseinrichtung hineinschreiben, muss und braucht das aber nicht“, so Kleinfercher. Wenn ein Forscher belegen will, dass er als erster ein Ergebnis erzielt oder ein Experiment durchgeführt hat, kann er dies durch einen Abgleich seiner Dokumente mit dem Eintrag auf der Blockchain tun. Bei der Max-Planck-Gesellschaft ist diese Funktion direkt in ein Keeper getauftes Werkzeug integriert. Andere Forschungseinrichtungen nutzen eigene Tools, die jedoch genau die gleiche Funktion erfüllen. Außerdem hat das für seine Mathematik-Software bekannte Unternehmen Wolfram Research eine Bloxberg-Anbindung in sein Mathematika-Programm eingebaut. Die Mechanik wird mittlerweile von vielen Forscher aktiv genutzt, auch weil die Hürde sehr niedrig ist. Aber es geht noch deutlich mehr. Auch Analysen von Daten lassen sich durch Cloud-Rechner in der Blockchain abstempeln . Es können Diplom- und Doktorarbeiten eintragen werden. Forscher können abzeichnen, dass sie an einem Peer-Review für eine Studie teilgenommen haben und hierfür auch Token einsammeln. „Es gibt wirklich viele unterschiedliche Anwendungsmöglichkeiten“, sagt Kleinfercher. Viele seien derzeit noch Theorie oder eine Idee, aber die Zahl der Entwickler, die diese aufgreifen und umsetzen könnten, wachse. Denn obschon hinter Bloxberg ein Konsortium samt einem verwaltenden Verein steht, ist die Datenbank public – und damit für jeden offen und nutzbar, der auf diese aufbauen möchte. Machbar wäre es beispielsweise, dass Wissenschaftler und Institute ihre Forschungsdaten als NFTs in die Blockchain schreiben, die gehandelt, getauscht oder übertragen werden können. Infolgedessen wäre eine Börse nach dem Vorbild von OpenSea machbar, die aber nicht für Affenbilder, sondern für Rohdaten aus Versuchen und Studien genutzt wird. Das gleiche wäre für teures oder seltenes Equipment wie spezielle Mikroskope, Sende- und Empfangsanlagen und anderes machbar, die auf diese Weise nachvollziehbar unter den Einrichtungen angefragt und verliehen werden könnten. Ebenso könnte deren Versand und Empfang mit Einträgen auf der Blockchain protokolliert werden. „Hier macht eine Tokenisierung wirklich Sinn“, sagt Kleinfercher. Auch könnte die Bloxberg-Blockchain dedizierten Science-DAOs ein Zuhause bieten, wie sie in den vergangenen Jahren entstanden sind. Das sind virtuelle Organisationen, die sich der Initiierung oder Förderung von Forschungsprojekten verschrieben haben, sich über auf einer Blockchain ablaufenden Abstimmungssystemen organisieren und auch Crowdfunding betreiben. „Es geht da nicht darum, die herkömmlichen Organisationen zu ersetzen“, sagt Kleinfercher. „Aber sie können den Markt bereichern, sie können etwas beitragen.“ Und da gebe es Bedarf in der Wissenschaft. Eine Plattform für die Zukunft Dass die Bloxberg-Blockchain die Welt der Wissenschaft jetzt grundlegend verändert, das glauben die Macher nicht. Sie sehen die Blockchain jedoch als digitalen Baustein in der Wissenschaft, der in den kommenden Jahren die Zusammenarbeit über verschiedene Institute, Länder und Kontinente hinweg einfacher, transparenter und sicherer gestalten könnte – und mit einer neuen Form der Kooperation kompatibel ist. Die Bloxberg-Blockchain soll daher auch für Experimente genutzt werden. Gerne auch für wagemutige Versuche. „Was uns [von Bloxberg] zusammenhält, ist der Glaube, dass die Blockchain-Technologie in Zukunft eine wichtige Rolle spielen wird“, sagt Kleinfercher. „Nicht nur im Wissenschaftsbereich, aber eben auch dort.“ Die Blochchain sei keine Technologie, die nur dazu dienen kann, virtuelle Währungen hin- und herzuschieben, oder virtuelle Kunstwerke zu handeln. Das lasse sich mit der Bloxberg-Blockchain beweisen und der Nutzen der Technologie abseits von Bitcoin und Dogecoin demonstrieren. Die Blockchain, sagt Kleinfercher, „ist eben nicht nur DeFi“. Nicht zuletzt sei die Blockchain eine Technologie, die auch die Entwicklung in der physischen Welt der Wissenschaft widerspiegelt und daher einfach perfekt passe. „Die Welt wird zunehmend dezentraler“, sagt Friederike Kleinfercher. „Wir haben immer öfter Kooperationen, wir arbeiten mit mehr Institutionen und Partnern zusammen.“ Die Blockchain sei eine Plattform, auf die gemeinsam aufgebaut und mit der ein Ökosystem geschaffen werden könnte, das möglichst allen zuträglich ist. Blockchain Wissenschaft Michael Förtsch Leitender Redakteur Rakete Fire Rakete 0 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Métal Hurlant: Wie französische Comic-Zeichner vor 50 Jahren die Zukunft erfanden | 1E9.community

    Vor 50 Jahren wurde das Comic-Magazin Métal Hurlant gegründet. Ohne seine mal prophetischen, mal bizarren, mal total albernen... 19. Dezember 2024 Métal Hurlant: Wie französische Comic-Zeichner vor 50 Jahren die Zukunft erfanden Vor 50 Jahren wurde das Comic-Magazin Métal Hurlant gegründet. Ohne seine mal prophetischen, mal bizarren, mal total albernen Bildergeschichten hätte es wohl weder Blade Runner noch Star Wars oder Matrix gegeben. Dennoch sind das Magazin und viele seiner begabten Künstler nur wenigen Kennern ein Begriff. Von Michael Förtsch Wer heute an Comics denkt, denkt vor allem an die beiden großen Namen der Comicbranche. Marvel mit Ironman, Captain America, Spiderman und dem Rest der Avengers auf der einen Seite. Und DC Comics mit Batman, Wonder Woman und Superman auf der anderen. Denn die beiden US-amerikanischen Comic-Fabrikanten, die zu den Medienkonglomeraten Disney respektive Warner Bros. Discovery gehören, haben mit ihren Heldenfiguren in den letzten Jahren nicht nur die Comic-Stände, sondern auch die internationalen Kinoleinwände dominiert – und dabei Milliarden umgesetzt. Aber bereits lange vor ihnen prägten die einzigartigen erzählerischen und visuellen Ideen der Autorinnen und Autoren des französischen Magazins Métal Hurlant etliche Fantasy- und Science-Fiction-Produktionen. Im Gegensatz zu den Marvel- und DC-Heften ist Métal Hurlant allerdings eine fantastische Obskurität geblieben – und ein Geheimtipp, der im kommenden Jahr sein internationales Comeback feiern soll. Viele europäische Länder haben eine lange Comic-Tradition. Doch vor allem der franko-belgische Comic und seine Autoren haben die Bildergeschichten im 20. Jahrhundert vorangetrieben. Insbesondere nach dem Zweiten Weltkrieg entstanden im französischsprachigen Europa etliche Comicmagazine, aus denen langjährige Serien wie Tim und Struppi – im Original Tintin –, Valerian und Veronique – im Original Valérian et Laureline – und Asterix hervorgingen. Viele der Geschichten in den Zeitschriften richteten sich zunächst an jüngere Leser. Dann begannen die Zeichner zunehmend mit Themen und Stilen zu experimentieren. So erreichten die Comics ab Mitte der 1960er und Anfang der 1970er Jahre eine immer breitere und erwachsenere Leserschaft, die die Experimentierfreude auch finanziell honorierte. Dennoch blieben viele Verleger vorsichtig und wollten ihre etablierte Leserschaft nicht zu sehr schockieren oder irritieren. Der Krieger Arzach, einer der bekanntesten Charaktere von Mœbius. Im Jahr 1974 fanden sich daher drei der zu dieser Zeit bereits etablierten und gefeierten Künstler und Autoren in Paris zusammen: der 2012 verstorbene Jean Giraud, besser bekannt unter seinem Pseudonym Mœbius, Philippe Druillet und Jean-Pierre Dionnet. Hinzu kam der Geschäftsmann und Verleger Bernard Farkas. Das Ziel: „Unser eigenes Ding machen“, wie Philippe Druillet in der Dokumentation In Search of Moebius sagte. Konkret hieß das: Das kleine Team wollte einen neuen Verlag und ein neues Magazin gründen, um sowohl bereits etablierten Größen des Mediums als auch weniger bekannten Autoren eine breite Plattform zu bieten und um unkonventionelle, avantgardistische und eher erwachsene Geschichten zu erzählen – vor allem im Genre der Science Fiction. Sie wollten die Geschichten, die von anderen Magazinen wie Pilote wegen expliziter Gewalt, detaillierter Nacktheit oder einfach zu bizarrer und provokanter Handlungen immer wieder abgelehnt worden waren. Geschichten, die die Comic-Autoren unbedingt erzählen wollten und von denen sie überzeugt waren, dass es genug Menschen gab, die sie lesen wollten. Humanoide Geschichten Im Dezember 1974 begann das kleine Team unter dem Namen Les Humanoïdes Associés – die vereinigten Humanoiden – offiziell die Arbeit an der ersten Ausgabe von Métal Hurlant , was so viel bedeutet wie schreiendes oder kreischendes Metall. Im Januar des kommenden Jahres lag sie in einer Auflage von 50.000 Stück in den Kiosken und Zeitschriftenläden aus. Auf dem Titelblatt war die detaillierte Malerei eines grün-schwarzen, affenähnlichen Monsters zu sehen, das auf einem Felsen hockt und mit gefletschten Zähnen brüllt. Auf den folgenden Seiten fanden sich mal in Schwarzweiß, mal in Farbe gedruckte Geschichten, die in Zeichenstil und Thematik kaum unterschiedlicher sein konnten. Beispielsweise erzählt Moebius im Auftakt der Kurzgeschichtenserie Arzach , die gänzlich ohne Dialoge auskommt, in hochdetaillierten und texturierten Panels von einem schweigsamen Krieger, der auf einem fliegenden Dinosaurier durch eine düstere mittelalterliche Fantasy-Welt streift. Richard Corben wiederum steuerte für die Ausgabe No1 die Geschichte Cidopey bei, die in surrealen, organischen und farbenfrohen Zeichnungen von zwei humanoiden Kreaturen berichtet, die eine postapokalyptische Welt voller tödlicher Gefahren erkunden. Und Jean-Pierre Dionnet legte mit Les Armees du Conquerant den ersten Teil einer fünfteiligen Schlachtenerzählung vor, deren ebenso epische wie präzise Bildfolgen sich um geheimnisvolle Armeen eines rücksichtslosen Herrschers, um Machtgier, Verrat und die Unberechenbarkeit des Schicksals drehen. Nach dem opulenten Debüt gelang es dem Magazin schnell, einige der bekanntesten und talentiertesten Comic-Autoren seiner Zeit für sich zu gewinnen. „Sie rannten uns die Tür ein“, sagt Jean Giraud in der Dokumentation In Search of Moebius . „Es verging keine Woche, in der nicht ein neuer begabter Künstler zu uns stieß.“ Zu ihnen gehörten Chantal Montellier, Jacques Tardi, Hugo Pratt, Jean-Claude Gal, Enki Bilal und Jean-Michel Nicollet, der für seine beeindruckenden Titelbilder bekannt wurde. Es verging keine Woche, in der nicht ein neuer begabter Künstler zu uns stieß. Jean-Pierre Dionnet als Chefredakteur hielt sie an, Risiken einzugehen, Grenzen zu überschreiten und neue Themen zu entdecken. Nichts sollte abgelehnt werden, nur weil es unanständig, brutal oder bizarr war. Daher fanden sich letztlich düsterer Horror à la H.P. Lovecraft ebenso auf den Seiten wie alberne Fantasy-Comedy, psychedelisch-existenzialistische Science-Fiction-Gedankenspiele in der Manier von Philip K. Dick, bluttriefende Mord- und Kriegsgeschichten im Tarantino-Stil und hin und wieder auch albern-sexuelle Witzerzählungen. Und das in allen erdenklichen Mal- und Zeichenstilen. Die Strategie ging auf. Bereits mit den ersten vierteljährlichen Ausgaben erreichte Métal Hurlant ein breites, aber auch erlesenes Publikum, vor allem aus der Kunst-, Kultur- und Unterhaltungsszene. Im französischsprachigen Raum waren das unter anderem der Maler und Filmemacher René Laloux, der Fahrenheit-451 -Regisseur François Truffaut und der Produzent Michel Seydoux. Auch der italienische Regisseur Federico Fellini zählte zu den Abonnenten – sogar als einer der ersten. Selbst der französische Staatspräsident François Mitterrand soll Gerüchten zufolge mal im Métal Hurlant geschmökert haben. Als die Macher des Comedy-Magazins National Lampoon 1977 begannen, das französische Magazin in den USA unter dem Titel Heavy Metal in englischer Übersetzung herauszugeben, fanden sich prominente Leser wie Terminator -Regisseur James Cameron, Star-Wars -Erfinder George Lucas, Hell-Boy - und Pacific-Rim -Regisseur Guillermo Del Toro, Komponist Hans Zimmer und Alien -Macher Ridley Scott. Anderen US-Verlagen soll das französische Magazin zu fremd und riskant erschienen sein. „Vor der Veröffentlichung von Heavy Metal kamen sie zu Marvel, um einen amerikanischen Verlag zu finden“, erinnert sich der ehemalige Marvel-Redakteur Jim Shooter. „Nach ihrer Präsentation hatten wir ein Gespräch, und Stan Lee meinte, das Zeug sei zu gewalttätig und zu sexy, als dass das gute alte, saubere Marvel es wagen könnte.“ Die 1979 in Métal Hurlant gestartete Comic-Reihe Exterminator 17 von Jean-Pierre Dionnet und Enki Bilal gilt als eine der Kernwerke des frühen Cyberpunk. Tatsächlich sind nicht alle Comics von Métal Hurlant besonders gut gealtert. Andere wurden zum Gegenstand von Kontroversen – damals wie auch Jahrzehnte später. So zum Beispiel Den von Richard Corben, in dem sich ein hypermaskuliner Kämpfer nackt – bis auf einen Umhang – durch eine archaisch-absurde Fantasiewelt kämpft und ebenso nackte Frauen für sich gewinnt. Sexismus und toxische Männlichkeit wurden dem Comic und seinem Autor vorgeworfen, der nach eigener Aussage eine Hommage an die überdrehte und absurde Pulp-Ära schaffen wollte. Ein unglaublicher Einfluss Die bandes dessinées von Métal Hurlant und ihre Nachdrucke dienten immer wieder als Inspirationsquelle für weitaus bekanntere Medienkreationen. So schrieb Dan O’Bannon, der spätere Drehbuchautor von Alien , 1976 den Comic The Long Tomorrow , der von Mœbius gezeichnet und in zwei Teilen veröffentlicht wurde. Die beiden hatten sich bei der Zusammenarbeit an der gescheiterten Dune -Verfilmung von Alejandro Jodorowsky kennen gelernt . The Long Tomorrow erzählt in klassischer Noir-Manier die Geschichte eines Privatdetektivs, der eine mysteriöse Aktentasche zu einer reichen Kundin bringen soll. Allerdings spielt die Geschichte in einer schmutzigen, überbevölkerten Weltraumkolonie mit kilometerhohen Megagebäuden, fliegenden Autos und herumschwirrenden Drohnen. Die Zeichnungen des französischen Künstlers für die Kurzgeschichte haben unter anderem das Los Angeles in Ridley Scotts Blade Runner , das Neo-Tokio in Katsuhiro Otomos Manga Akira sowie die Beschreibungen der dystopischen Welt in William Gibsons Cyberpunk-Roman Neuromancer beeinflusst, wie sie alle offen eingestehen. „Ja, Mœbius ist meiner Meinung nach großartig – wahrscheinlich der beste Comic-Zeichner der Welt“, sagte Scott in einem Interview mit American Cinema Papers im Jahr 1982 . Sein „Konzept von Blade Runner “ hätte direkt an den Comic angeknüpft, weswegen er auch versucht habe, den Franzosen von einer Mitarbeit an Blade Runner zu überzeugen. Aber er habe Mœbius, der zuvor einige Konzeptzeichnungen für Alien lieferte, „immer auf dem falschen Fuß erwischt“. Ja, Mœbius ist meiner Meinung nach großartig – wahrscheinlich der beste Comic-Zeichner der Welt. Im Gegensatz zu Scott konnte James Cameron Jean Giraud durchaus für eine Zusammenarbeit gewinnen. Er entwarf die mysteriösen Unterwasser-Aliens in The Abyss , der 1989 in die Kinos kam. Auch für Luc Bessons Das fünfte Element von 1997 war er tätig. Vor allem für die bizarren Fahrzeuge und die Szenen der berstenden Megametropole New York City. Doch das hatte später ein juristisches Nachspiel. Denn Giraud und Alejandro Jodorowsky verklagten den französischen Regisseur. Dieser habe sich bei der Handlung und den Figuren für Das fünfte Element an ihrer Comicserie The Incal bedient, die 1980 in Métal Hurlant begann. In der Tat gibt es Ähnlichkeiten, aber diese reichten einem französischen Gericht nicht aus, um ein Plagiat festzustellen. En las medianas de Cymbiola von Schuiten und Renard aus der fünften Ausgabe von Métal Hurlant. George Lucas hat in Interviews wiederholt darauf hingewiesen, dass er sich für seine erste Star-Wars -Trilogie von Métal Hurlant inspirieren ließ. Vor allem bei den zuweilen arg düsteren Illustrationen von Jean-Claude Mézières und Philippe Druillet. Ebenso soll der Schmuggler Han Solo nicht zufällig Ähnlichkeit mit dem Raumfahrer aus Phillipe Druillets Gail -Serie haben. Und die Sturmtruppen und die trostlose Wüstenwelt von Tatooine lassen sich auf Szenen aus Baroudeurs de l'Espace von Jean-Claude Mézières zurückführen. Auch Mad-Max -Regisseur George Miller gilt als Fan des Magazins. In den dystopischen Bildergeschichten wie Druillets Salammbô und Hermann Huppens Jeremiah soll er sich visuelle Anregungen für seine Wüstenland-Saga entdeckt haben. Vor den Dreharbeiten zum ersten Mad-Max -Film sprach Miller deshalb sogar bei Métal-Hurlant-Chefredakteur Dionnet vor. Er hoffte auf eine Zusammenarbeit und wollte den Film angeblich sogar Métal Hurlant nennen. Doch Dionnet hatte den heute weltberühmten Regisseur damals schnell als „Verrückten der Woche“ hinauskomplimentiert. „Aber ich bereue es nicht“, sagt Dionnet . Denn Miller habe Métal Hurlant trotzdem in jedem seiner Mad-Max -Filme gehuldigt. In Max Max 2 hat er sogar ein Schädel-Emblem, das in Arzach zu sehen ist, als Hommage gut sichtbar auf einem Auto platziert. Eine Ausgabe von Métal Hurlant von 1982. Selbst die Anime-Ikone Hayao Miyazaki soll von den Werken der Franzosen stimuliert worden sein. Angeblich hätte es ohne Métal Hurlant und „den Einfluss von Mœbius“ und insbesondere Arzach das märchenhafte Nausicaä aus dem Tal der Winde nicht gegeben, so Miyazaki 2004 bei einem Treffen mit dem Mitbegründer von Métal Hurlant , der seine Tochter übrigens Nausicaä nannte. Auch in zahlreichen anderen Filmen wie Tron , The Matrix , Brazil , Big Bug , Blood Machines , Rebel Moon und Dune ist der Einfluss der Ästhetik der avantgardistischen Comicschöpfer sicht- und spürbar Zukunft des kreischenden Metalls Trotz seines unbestreitbaren Einflusses und seiner kulturellen Wirkung ist Métal Hurlant nie zu einem Massenphänomen geworden, wie es etwa die Comics von Marvel und DC waren. Zwar ließen sich viele Film- und Medienschaffende von den einzigartigen Inhalten inspirieren, mehr aber auch nicht. „Es war außergewöhnliches Zeug“, sagt etwa 12-Monkeys -Regisseur Terry Gilliam. „Aber was mir aufgefallen ist: Nichts davon wurde verfilmt.“ Das gilt praktisch von der Gründungszeit des Magazins bis heute. 2012 startete lediglich eine mäßig erfolgreiche Serie namens Métal Hurlant Chronicles , die einige der Geschichten für den kleinen Bildschirm adaptierte. Und 2021 wurde angekündigt, dass der neuseeländische Thor-3 -Regisseur Taika Waititi The Incal verfilmen will. Doch bislang blieb es bei der Ankündigung. Schwermetall Métal Hurlant erschien nicht nur in den USA in lokalisierter Fassung, sondern auch in Deutschland. Ab 1980 brachte der Verleger Raymond Martin viele der Geschichten in Lizenz und mit eingedeutschten Dialogen unter dem Titel Schwermetall: Fantastische Comics für Erwachsene auf den Markt. Ab Heft 58 übernahm der Alpha Comic Verlag den Vertrieb. Schwermetall geriet mehrfach ins Visier der Bundesprüfstelle für jugendgefährdende Schriften, da nicht wenige der Geschichten Gewalt und Sex thematisierten. So mussten beispielsweise die Druuna-Comics von Paolo Eleuteri Serpieri wegen Nacktheit und erotischer Szenen teilweise geschwärzt werden. Dadurch stand Métal Hurlant stets auf wackeligen finanziellen Füßen. Hinzu kam, dass die Gründer keine Kompromisse bei Qualität und Honoraren eingehen wollten. Von Anfang an wurde Métal Hurlant auf hochwertigem Papier gedruckt, und auch beim Druck selbst wurde nicht gespart. Im Frühjahr 1980 ging der Verlag Les Humanoïdes Associés pleite. Der amerikanische Ableger Heavy Metal kündigte daraufhin die Zusammenarbeit mit dem französischen Original auf. Die US-Verleger hatten sowieso bereits begonnen, amerikanische Comics zu integrieren und Heavy Metal vom Métal Hurlant zu separieren. In letzter Minute gelang es den Gründern von Métal Hurlant , die spanische Druckerei Litoprint als Investor zu gewinnen, um den Betrieb weiterzuführen. Aus dem viermonatlichen Magazin wurde daraufhin ein halbjährliches. Ein Auszug aus der Geschichte ExoLove von Jorg de Vos, die im Neustart von Métal Hurlant vorkommt. Nach weiteren sechs Jahren wurde Les Humanoïdes Associés an den Verlagsriesen Hachette verkauft. In dieser Zeit hatte sich das Comic-Business bereits dramatisch verändert. Die klassischen Comic-Anthologien verkauften sich immer schlechter. Stattdessen waren umfangreiche Graphic Novels nach dem Vorbild von V wie Vendetta , From Hell , The Dark Knight Returns oder Watchmen en vogue. Ein Markt, in den Métal Hurlant nicht mehr zu passen schien. Nach nur wenigen Monaten wurde das Heft daher im August 1987 unter dem neuen Verlagseigentümer eingestellt. Nur ein Jahr später wurde Les Humanoïdes Associés von dem damals 23-jährigen Fabrice Giger, Sohn des Schweizer Malers José Giger, gekauft. In der Zwischenzeit hatten alle Gründer das Unternehmen bereits verlassen, um sich anderen Projekten zu widmen. Seitdem wurden Les Humanoïdes Associés und ein Humanoids genannter Schwesterverlag in den USA jedoch restrukturiert. Beide verlegen heute recht erfolgreich neue Comicserien und Graphic Novels. Darunter Kulttitel wie Die Meta-Barone und The Technopriests , die spirituelle Ableger von The Incal darstellen, aber auch jüngere Erfolge wie Omni , Olympus und Robert Silverberg's Colonies . Außerdem wurde Métal Hurlant sowohl 2002 für kurze Zeit und seit 2021 wieder durchgängig in Französisch neu aufgelegt. Das soll im kommenden Jahr dann auch auf Englisch erneut gelingen – unter dem französischen Originaltitel und mit Unterstützung einer Kickstarter-Kampagne. Über die kommenden zwei Jahre soll das Magazin dadurch erneut jedes Quartal erscheinen und dabei eine Mischung aus bekannten Geschichten als auch neuen Erzählungen liefern. Bilder: Les Humanoïdes Associés / Humanoids 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Log In Kommentar verfassen Kommentar verfassen Share Your Thoughts Be the first to write a comment. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Wie Wissenschaftler versuchen, mit Aliens Kontakt aufzunehmen | 1E9.community

    Sind sie da draußen? Seit Jahrzehnten suchen Forscher den Kosmos nach außerirdischen Intelligenzen ab. Gefunden haben sie noch keine.... 12. Oktober 2020 Wie Wissenschaftler versuchen, mit Aliens Kontakt aufzunehmen Sind sie da draußen? Seit Jahrzehnten suchen Forscher den Kosmos nach außerirdischen Intelligenzen ab. Gefunden haben sie noch keine. Daher versuchen einige Wissenschaftler den umgekehrten Weg: Sie wollen die Außerirdischen mit Nachrichten auf die Menschheit aufmerksam machen. Und das nicht erst seit der Moderne. Einige halten das für gefährlich. Von Michael Förtsch Eigentlich reicht schon der Blick in den nächtlichen Himmel, um auf die Idee zu kommen, dass wir nicht allein sind. Zwischen all den Lichtpunkten muss es ja wohl irgendwas geben. Der Schätzung von Astronomen zufolge, dürfte das für uns sichtbare Universum zehn Trilliarden Sterne umfassen . Die verteilen sich auf 100 Milliarden Galaxien, wovon jede 100 Milliarden Sterne hat. Alleine in der Milchstraße gibt es 1.00000.000.000 davon . Zumindest ungefähr. Schließlich sehen wir eben nur einen sehr kleinen Teil des Universums. Entsprechend ungenau sind unsere Schätzungen – und könnten sowohl weit über als auch unter diesen Zahlen liegen. Aber trotzdem: So einige dieser Sterne dürften Planeten haben, die sie umkreisen. Und manche davon dürften Leben zu lassen. Und davon manche vielleicht sogar intelligentes Leben. Das ist auch die simple Erkenntnis aus der sogenannten Drake-Gleichung – und deren zahlreichen Ableitungen. Schon rein statistisch ist es, das sagt sie aus, eher wohl wahrscheinlich als unwahrscheinlich, dass es noch irgendwo anders Leben gibt. „Ich glaube, wir sind nicht allein und nichts Besonderes“, sagt daher Seth Shostak zu 1E9. Er ist Astrophysiker am California Institute of Technology und Chef-Astronom am SETI Institut in Mountain View, Kalifornien. Das studiert Exoplaneten, astrophysikalische Phänomene und die Entstehung von Leben. Bekannt ist das Institut aber vor allem dafür, dass es seit den 1980ern ins All lauscht – also: Search for Extra-Terrestrial Intelligence betreibt, die Suche nach intelligentem außerirdischem Leben. ,,Ich glaube, wir sind nicht allein und nichts Besonderes. Seth Shostak Mit Radioteleskopen wie dem Allen Telescope Array oder dem Green Bank Telescope scannt das SETI Institute den Himmel nach Signalen ab. Ganz in der Hoffnung, vielleicht irgendwo und irgendwann ein Zeichen aufzufangen, das als Hallo, hier sind wir! einer extraterrestrischen Spezies gedeutet werden kann. Oder als Hinweis auf deren Existenz. „Radiowellen sind eine gute Möglichkeit, um Informationen in das All zu übermitteln“, sagt Shostak. „Entweder als gewollter Weg zur Kontaktaufnahme oder als Randeffekt ihrer eigenen Kommunikation.“ Es sind vor allem Radiosignale auf die es SETI-Forscher abgesehen haben. Mit Radioteleskopen wie dem Very Larage Array suchen sie daher den Himmel ab. © Donald Giannatti on Unsplash Aber auch auf das Registrieren von Laser- und andere Lichtsignalen oder auf die Entdeckung von Alien-Artefakten hofft das SETI Institute – etwa eine Dyson-Sphäre , eine riesige Schale oder einen Schwarm von Solarpanelen, die einen Stern einkapseln, um dessen Energie abzuernten. „Es ist vernünftig anzunehmen, dass eine fortgeschrittene Zivilisation so etwas baut“, sagt der SETI-Wissenschaftler. Solche Strukturen könnten etwa hinter Lichtschwankungen von Sternen stecken, was von 2017 auf 2018 Debatten um das seltsame Verhalten der Sonne KIC 8462852 anheizte . Huhu! Hier sind wir! Dass draußen im All irgendwelche Wesen ähnlich wie wir leben und sich entdecken lassen, diese Überlegung, sagt Shostak, sei nicht neu. „Das geht mindestens bis zu den alten Griechen zurück“, sagt der SETI-Forscher. „Aber ihnen fehlten die Instrumente, um nachzuschauen, ob etwas oder was da oben ist.“ Erst mit der Erfindung von geschliffenen Linsen und Teleskopen im 17. und 18. Jahrhundert wurde es möglich, den Mond und den Mars ins Visier zu nehmen – und dort nach Hinweisen zu suchen, ob dort jemand sein könnte. ,,Die Menschen kamen auf die Idee, dass wir etwas tun könnten. Sie meinten, wir könnten auf die ein oder andere Weise auf uns aufmerksam machen. Seth Shostak Frühe Astronomen meinten in Mondkratern Städte zu entdecken . Die wachsenden und schrumpfenden Polkappen sowie auftauchende und verschwindende Flecken auf dem Mars wurden als Indikatoren für Jahreszeiten und Vegetation gedeutet. „[Mond und Mars] sahen unserer Welt schon irgendwie ähnlich – und zumindest der Mars schien schon so ein bisschen wie unsere Erde zu sein“, lacht Shostak. „Daher dachte man sich, dass dort Leben möglich wäre. Bei dem Kenntnisstand dieser Zeit war das eine berechtigte Annahme.“ Recht früh gab es daher auch das Bedürfnis, nicht nur passiv zu schauen und zu lauschen, sondern, wenn da oben jemand sein sollte, selbst einmal Hallo! zu schreien . „Die Menschen kamen auf die Idee, dass wir etwas tun könnten“, sagt Shostak. „Sie meinten, wir könnten auf die ein oder andere Weise auf uns aufmerksam machen.“ Der Mars. Frühe Astronomen meinten, auf unserem Bruderplaneten erdähnliche Jahreszeiten und Vegetation zu erkennen. Daher schien er das logische Ziel für Kontaktaufnahmen. © NASA Einer der Vordenker dabei war das deutsche Universalgenie Carl Friedrich Gauß. In Gesprächen mit Fachkollegen und seinem ehemaligen Lehrer soll er 1822 vorgeschlagen haben , von ihm entwickelte Heliotrope – eigentlich zur Landvermessung bestimmte Sonnenspiegel – in ganz Europa aufzustellen. Damit könne das Sonnenlicht oder auch das Licht von Gaslampen zum Mond gestrahlt werden. Der Franzose Charles Cros soll einige Jahre später einen ähnlichen Vorschlag gehabt haben. Er wollte demnach einen riesigen Parabolspiegel konstruieren und das Licht der zu dieser Zeit noch recht neuartigen Elektrolampen nutzen, um Blinksignale ins All zu schicken. Auch dem österreichische Astronom Joseph von Littrow werden solche Bemühungen zugeschrieben. Er hatte angeblich einen Plan ausgearbeitet, um in der Sahara breite Gräben in der Form von geometrischen Figuren auszuheben und dann mit Wasser und Lampenöl zu füllen. Einmal in Brand gesteckt, würden sie so hell brennen, dass sie weithin aus dem All sichtbar gewesen wären: Er hatte dabei insbesondere die Marsianer, aber auch Bewohner der Venus im Sinn und glaubte, dass sie die Leuchtzeichen als gemacht erkennen würden. „Es sollte ihnen zeigen, dass wir intelligent sind und Geometrie verstehen“, sagt Shostak und ergänzt, dass Littrow aber niemanden fand, der das Experiment finanzieren wollte. Natürlich hätte keiner die feurige Nachricht gesehen. Denn die Möglichkeit, wirklich andere Welten mit Nachrichten zu erreichen, die kam erst Jahrzehnte später. Nämlich mit der Entdeckung der Radiowellen und den Entwicklungen von Funkpionieren wie Guglielmo Marconi, der Anfang des 20. Jahrhunderts selbst glaubte, Morsezeichen „aus dem Raum jenseits unseres Planeten“ zu empfangen . Ebenso wie der geniale Erfinder Nicola Tesla, der 1901 sagte, er könne Radiosprüche vom Mars abfangen . „Heute wissen wir, dass das eher keine Marsianer waren“, sagt Shostak. „Aber wir sahen hier die Technik aufkommen, die es brauchte, um zu lauschen und zu senden.“ Ein Funkruf ins All Ein erster irdischer Funkruf, der die da draußen erreichen sollte, wurde am 19. November 1962 von sowjetischen Wissenschaftlern gesendet . Es war ein Morsecode, der das russische Wort Mir – also: Frieden – buchstabierte. Vom Planetaren Radar in Yevpatoria wurde er in Richtung der Venus ausgestrahlt, um die Funktionsfähigkeit der riesigen Antenneninstallation zu testen. Mittlerweile sind die Funkwellen weit gereist und auf dem Weg zum Stern HD 131336. Im Jahre 1974 folgte dann die legendäre Arecibo-Botschaft , die der bekannte Astronom Frank Drake mitverfasste. Als Pixelgrafik wurden Informationen über die Menschheit, chemische Elemente, die DNS-Struktur und die Erde als Einsen und Nullen vom Arecibo-Observatorium auf Puerto Rico zum Kugelsternhaufen M13 gefunkt. Rund 45.500 Jahre wird sie unterwegs sein – und, wie neue Berechnungen ergeben haben, ihr Ziel durch die Bewegung der Galaxie, wohl weit verfehlen . Womöglich ist es schon längst zu spät, um sich wieder still zu verhalten. Denn bereits seit Jahrzehnten senden wir auch ganz ungewollt ins All. Nämlich mit Radio- und Fernsehsignalen aber auch zivilen und militärischen Radaranlagen. © Ben Wicks on Unsplash Einer, der dieses Erbe heute mit mehr Wissen und Planung fortsetzt, ist Douglas Vakoch. Er war einst Mitarbeiter am SETI Institute, sein Büro lag direkt neben dem von Shostak. Mittlerweile ist er der Leiter von METI International – Messaging Extraterrestrial Intelligence –, einer kleinen Organisation deren erklärtes Ziel es ist, „mit voller Absicht starke Signale zu den Sternen zu senden, in der Hoffnung, mit außerirdischer Intelligenz in Kontakt zu treten“. Active SETI oder eben auch METI wird dieses Vorgehen seit einigen Jahre bezeichnet. „Seit sechzig Jahren scannen Astronomen, die an der Suche nach außerirdischer Intelligenz beteiligt sind, den Himmel nach Hinweisen auf fortgeschrittene Zivilisationen ab“, sagt Vakoch im Gespräch mit 1E9. „Bis jetzt haben sie nichts gefunden. Was aber, wenn jede Zivilisation da draußen genau das tut, was wir tun: Einfach nur zuhören, aber nicht selbst senden?“ Genau daher sei es richtig und wichtig, nicht passiv das Ohr ans Weltall zu legen, sondern aktiv ein Ist jemand da draußen? hinausschreien. ,,Seit sechzig Jahren scannen Astronomen, die an der Suche nach außerirdischer Intelligenz beteiligt sind, den Himmel nach Hinweisen auf fortgeschrittene Zivilisationen ab. Bis jetzt haben sie nichts gefunden. Douglas Vakoch Seine erste Nachricht ins All sendeten Douglas Vakoch und METI International in Zusammenarbeit mit dem Musikfestival Sonar im Oktober 2017 über drei Tage hinweg vom Forschungsradar der European Incoherent Scatter Scientific Association in Tromsø, Norwegen. „Wir haben dafür eine mathematische und wissenschaftliche Anleitung entworfen“, erläutert Vakoch. In der Nachricht sind etwa grundlegende Prinzipien der Arithmetik, Geometrie und Trigonometrie als binäre Signale codiert. Mit einfachen Bip- und Bop -Pulsen, von denen 125 pro Sekunde abgesendet wurden, werden etwa einfache 1+1=2-Rechnungen angestellt ; darauf aufbauend kommen Berechnungen, die gleichschenklige Dreiecke oder einen Kreis beschreiben. Dazu kommt eine binäre Aufschlüsselung der Funkwellen, die die Informationen durch das All tragen, ein Impuls, der durch Hochzählen das Konzept der Zeit greifbar macht – und kurze Ausschnitte aus Musikstücken . Eine Zivilisation, die eine diese Nachricht empfangen kann, glaubt der METI-Forscher, sollte diese Inhalte dechiffrieren und verstehen können. Gerichtet war die Nachricht auf Luytens Stern. „Das ist der nächste bekannte Stern, von dem wir wissen, dass er einen erdähnlichen Exoplaneten hat, der ihn in einer habitablen Zone umkreist“, so Vakoch. Dass er jedoch allzu bald eine Antwort bekommt, glaubt der METI-International-Leiter nicht. „Selbst wenn wir die Sterne in unserem eigenen galaktischen Hinterhof anfunken, sind die Entfernungen immer noch immens“, sagt er. „Unsere Botschaft zum Luytens Stern, die immerhin mit Lichtgeschwindigkeit unterwegs ist, wird mehr als zwölf Jahre bis zur Ankunft benötigen – und eine Antwort dann nochmal zwölf Jahre! Nicht gerade ein flotter Dialog.“ ,,Unsere Botschaft zum Luytens Stern, die immerhin mit Lichtgeschwindigkeit unterwegs ist, wird mehr als zwölf Jahre bis zur Ankunft benötigen – und eine Antwort dann nochmal zwölf Jahre! Nicht gerade ein flotter Dialog. Douglas Vakoch Auch daher glaubt Douglas Vakoch, dass auch Methoden abseits von Radiosignalen genutzt werden sollten, um ins All zu strahlen. Etwa Laserpulse, die weitaus dichtere und informationsreichere Nachrichten erlauben. „An einem Tag könnten wir mehr Informationen senden als in der ganzen Historie der Erde zuvor“, sagt er. Beispielsweise könnten sich damit kodierte 3D-Bilder versenden lassen, die den Aliens genau zeigen, wie wir aussehen und uns bewegen. Ziemlich viel Müll im Weltraum Douglas Vakoch ist mit METI International nicht allein mit seinen Bemühungen. Auch die vom russischen Millionär Juri Borissowitsch Milner angestoßene Forschungsinitiative Breakthrough Initiatives will mit der Programm Breakthrough Message in Zukunft Botschaften ins All schicken. Aber vorher wollen die Forscher hier eine weltweite Debatte in Wissenschaft, Politik und Philosophie darüber anstoßen, ob überhaupt, wie und was eigentlich gesendet werden sollte. Währenddessen strahlen andere schon munter alles Mögliche in alle Richtungen des Kosmos. Das Allen Telescope Array in Kalifornien wird sowohl für die Suche nach intelligenten Außerirdischen als auch für astronomische Forschung genutzt. Finanziert wurde es von Microsoft-Co-Gründer Paul Allen. © Seth Shostak/SETI Institute Beispielsweise kann derzeit jeder, der will, über die Website SpaceSpeak.com für einige US-Dollar einen Text oder ein Bild ins All beamen lassen. Auch schickte 2016 eine vom UK Astronomy Technology Centre, der European Space Agency, der University of Edinburgh und anderen gestützte Initiative namens A Simple Response to an Elemental Message insgesamt 3.775 Antworten auf die Frage danach, wie unser Leben unsere Zukunft beeinflusst, über die Cebreros Station in Kastilien und León, Spanien zum Polarstern. Im Jahr 2013 wiederum funkte ein Crowdfunding-Unternehmen namens Lone Signal von Nutzern eingesendete 144-Zeichen-Botschaften in Richtung Gliese 526, die als eine Art komischer Rosettastein dienen sollten. Aber auch sechs Stunden an Tortillachips-Werbung , Kleinanzeigen von Craigslist oder Nachrichten der Nutzer des lange vergessenen Social Networks Bebo schwirren bereits durch den kosmischen Äther. Genau das beunruhigt jedoch einige Experten. Sie finden das unverantwortlich. ,,Die Begegnung mit einer fortgeschrittenen Zivilisation könnte wie die Begegnung der Ureinwohner Amerikas mit Kolumbus sein. Stephen Hawking Für Stille ist es bereits zu spät Einer der bekanntesten Kritiker der aktiven Suche nach intelligenten Außerirdischen war der 2018 verstorbene Astrophysiker Stephen Hawking. Über mehrere Jahre warnte er, dass das Senden von Nachrichten ins All außerirdische Lebensformen anlocken könnte. Es könnte sich um eine hochentwickelte Zivilisation handeln, die nicht an anderen Kulturen im Weltall, sondern nur an Lebensraum oder Ressourcen interessiert ist – und keine Ethik oder Moral kennt, wie wir es tun. „Die Begegnung mit einer fortgeschrittenen Zivilisation könnte wie die Begegnung der Ureinwohner Amerikas mit Kolumbus sein“, sagte Hawking . „Die ging [für die Ureinwohner] nicht gut aus.“ Auch Philosophen wie Susan Schneider mahnen zur Vorsicht. „Es wäre bestimmt faszinierend, auf eine außerirdische Superintelligenz zu treffen. Aber es wäre auch sehr gefährlich und existenzbedrohend“, meinte Schneider in einem früheren Gespräch mit 1E9 . Sie verwies dabei auf Theorien, die auch erklären könnten, warum bisher kein Kontakt mit Aliens zustande gekommen ist. Zum einen die Dunkle-Wald-Theorie, die besagt, dass zwar viele außerirdische Zivilisationen existieren, aber sich ruhig verhalten, weil sie keine Feinde anlocken wollen. Deutlich effektiver als Radiowellen wären Botschaften, die mit Lasern ins All geschossen werden. Das glauben Forscher wie Douglas Vakoch. © Claudio Rolli on Unsplash Eine andere Überlegung nennt sich Berserker-Theorie und geht davon aus, dass hochentwickelte Zivilisationen bewaffnete Sonden ins All schicken, die etwa nach Funkwellen und Laserlichtern suchen, und aufstrebende Spezies auslöschen, bevor sie zur Gefahr werden. Das sind Theorien, die auch der Astronomen Dan Werthimer bemühte , nachdem Douglas Vakoch 2017 seine Nachricht gesendet hat. Er sagte, dass Active-SETI- und METI-Bemühungen „möglicherweise gefährlich und keine gute Idee“ sind. Es sei wie „in einen Wald hineinzurufen, der voller Tiger, Löwen, Bären und anderen gefährlichen Tieren ist“. Solchen Warnungen hält Douglas Vakoch von METI International ein recht einfaches Argument entgegen. „Es ist schon längst zu spät“, sagt er. Wenn eine Alien-Armada andere Zivilisationen ausmachen will, um sie zu überrennen oder den Planeten zu plündern, gäbe es schon genug Signale von der Menschheit im Weltraum, denen sie folgen könnte: die Radio- und Fernsehsignale, aber auch Radarwellen von Flughäfen, die als sogenannte Leckstrahlung in den Weltraum dringen. „Selbst eine Zivilisation, die nur ein paar hundert Jahre technologisch fortgeschrittener ist als wir, könnte unsere Signale bis zu einer Entfernung von 500 Lichtfahren aufspüren“, sagt Vakoch. Das ist weiter weg als der Luytens Stern, den er angepeilt hat. Der gleichen Ansicht ist auch Seth Shostak vom SETI Institute. „Wir senden die ganze Zeit, 24 Stunden am Tag“, stimmt er seinem ehemaligen Kollegen zu. „Ob beabsichtigt oder nicht, unsere Radiowellen könnten durchaus ein Sonnensystem erreichen, wo feindliche Aliens hausen. Vielleicht, durchaus möglich.“ Wenn eines Tages fiese Außerirdische über unserem Planeten schweben, meint der SETI-Forscher, wäre das daher wohl weniger die Schuld von METI International, sondern eher von Radio- und Fernsehsendern oder Flughäfen. Die Gefahr, dass das wirklich passiert, sei aber eher gering. SIND WIR IM ZOO? Die Theorien, dass sich Aliens aus Angst vor bösen Invasoren still verhalten, ist nicht die einzige Erklärung dafür, warum wir bisher nichts von intelligenten Außerirdischen gehört haben. Es gibt sogar eine ganze Reihe an Erklärungen für das sogenannte Fermi-Paradoxon . Unter anderem, dass wir tatsächlich allein sind, Aliens kein Interesse an Kommunikation haben, es bereits andere Zivilisationen gab, wir sie aber zeitlich verpasst haben, weil sie sich etwa selbst auslöschten oder durch eine Katastrophe verschwanden. Eine andere Theorie, die Douglas Vakoch fasziniert, ist die sogenannte Zoo-Hypothese. Die besagt, dass da draußen durchaus Aliens sind und uns längst entdeckt haben. Sie würden uns aber als primitive Lebensform betrachten, so wie wir Tiere im Zoo. Stimme diese These, glaubt Vakoch, wäre das Aussenden von Nachrichten ins All sehr wichtig. Denn: „Stell dir vor du bist im Zoo und schaust dir Zebras an“, sagt er. „Dann stell dir vor, eines der Zebras beginnt, mit seinen Hufen, Zahlen abzuzählen. Das würde unser Verhältnis zum Zebra dramatisch verändern.“ Für die Chance, auch nur eine Zivilisation auf uns aufmerksam zu machen, müssten unsere Signale wohl mindestens eine Million Sternensysteme kreuzen, schätzt Seth Shostak. Die mittlere Distanz bis zu den eine Million Systemen, die uns am nächsten sind, beträgt laut ihm rund 200 Lichtjahre. Genauso lange wären unsere Signale bis dahin unterwegs. Die ersten Signale, die stark genug waren, um unser Sonnensystem zu verlassen, wurden ab den 1930ern gesendet. Die wären derzeit nicht einmal auf halber Strecke, wenn überhaupt. Wenn bösartige Aliens hier ankommen sollten, dann nicht morgen, sondern frühestens in über 120 Jahren, meint Shostak – und das auch nur, wenn sie mit Überlichtgeschwindigkeit reisen können. Schickt ihnen das Internet Aber was, wenn die Außerirdischen zuerst bei uns durchklingeln? Also was, wenn das SETI Institut eine Nachricht auffangen sollte? Wie sollten wir dann antworten? Douglas Vakoch von METI International hat darauf keine definitive Antwort. Dafür brauche es, glaubt er, eine international geführte Debatte. Er hofft darauf, dass das Thema der Kommunikation mit potenziell intelligentem Leben im All bis dahin etwas ernster genommen wird. „Mein Traum ist es, dass António Guterres, der Generalsekretär der Vereinten Nationen, eines Tages verkünden wird, dass die interstellare Nachrichtenübermittlung zu einer wichtigen Priorität für die Diskussionen innerhalb der Generalversammlung geworden ist“, meint er. „Aber bis es soweit ist, bis dahin müssen Organisationen wie METI International das Heft in die Hand nehmen und Debatten darüber selbst anstoßen.“ ,,Mein Traum ist es, dass António Guterres, der Generalsekretär der Vereinten Nationen, eines Tages verkünden wird, dass die interstellare Nachrichtenübermittlung zu einer wichtigen Priorität für die Diskussionen innerhalb der Generalversammlung geworden ist. Douglas Vakoch Ein ähnliches Vorgehen haben 2011 Forscher an der University of California in Berkeley und dem Blue Marble Space Institute of Science vorgeschlagen. Sie haben einen Plan zur Entwicklung eines Protokolls zur Kommunikation mit extraterrestrischen Intelligenzen entworfen und schlagen vor, so viele Menschen, Kulturen und Gesellschaften wie möglich einzubeziehen. Etwa, indem Menschen auf einer interaktiven Website eigene Nachrichten entwickeln können, die dann auch an Menschen getestet werden. Denn: „Eine wirksame Botschaft an Außerirdische sollte zumindest für Menschen verständlich sein.“ Wenn sie das nicht ist, wie sollte sie dann ein Wesen aus einer anderen Welt kapieren? Im Jahr 2017 hat Douglas Vakoch von METI International gemeinsam mit dem Sónar Festival eine Botschaft ins All geschickt. © Sónar Festival Seth Shostak vom SETI Institute hat hingegen eine pragmatischere Sicht auf eine hypothetische Kontaktsituation. Er glaubte nicht an Bilder wie aus Science-Fiction-Filmen, wo ad hoc, wenn ein Funkspruch aus dem All ankommt, ein internationales Komitee von Wissenschaftlern gebildet wird, das eine Antwort für die ganze Welt spricht. „Dafür habe ich zu viel Erfahrung mit solchen Expertenrunden“, sagt er und lacht. Sowieso gäbe es wohl keine Eile, eine Antwort zu senden, wenn der Sender hunderte Lichtjahre entfernt ist. Daher müsse kein hektisches Hallo! Wir hören euch! zurückgeschickt werden. Es gäbe genug Zeit, sich gründlich zu überlegen, was die beste Antwort wäre. Aber seine Empfehlung wäre, „einfach das ganze Internet“ zu senden – oder besser: die Server von Google, die große Teile des Internet katalogisiert haben. „Das ist etwas, mit dem sie wirklich etwas über uns erfahren würden“, sagt der SETI-Wissenschaftler. „Das ist so viel redundante Information. Du hättest Bilder, Videos, Texte.“ Eine Zivilisation, die mit uns in Kontakt treten kann, bei der ist davon auszugehen, dass sie so etwas wie Computer besitzt, die Daten speichern und auf die ein oder andere Weise dechiffrieren und lesbar machen könnte. „Sie könnten unheimlich viel entdecken“, sagt Shostak „Vor allem könnten sie verdammt viel über diese kleinen und ziemlich felligen Kreaturen lernen. Diese Dinger, die wir Katzen nennen.“ Teaser-Bild: Getty / sharply_done 1E9 Michael Förtsch Leitender Redakteur Rakete Fire Rakete 0 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Přihlásit Kommentar verfassen Kommentar verfassen Podělte se o vaše myšlenky Buďte první, kdo napíše komentář. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

  • Solarglas, Solardecken, Solarkleidung: Design für unsere Solarpunk-Zukunft! | 1E9.community

    Das Science-Fiction-Genre Solarpunk zeichnet Zukünfte, in denen Menschen im Einklang mit der Natur leben – auch mit Hilfe grüner... 24. November 2022 Solarglas, Solardecken, Solarkleidung: Design für unsere Solarpunk-Zukunft! Das Science-Fiction-Genre Solarpunk zeichnet Zukünfte, in denen Menschen im Einklang mit der Natur leben – auch mit Hilfe grüner Technologien, die heute schon existieren. Forscher und Designer arbeiten daran, vor allem Solarenergie stärker in unserem Alltag zu verankern, uns immer und überall Strom erzeugen zu lassen und Gebrauchsgegenstände nicht mehr als Wegwerfprodukte zu denken. Von Michael Förtsch Bis vor wenigen Jahren war Solarpunk noch ein ziemlich obskures Science-Fiction-Genre. Es war ein Gegengewicht zu Cyber- und Steampunk, das nicht von kaputten Welten erzählt, sondern eher vom Gegenteil. In den Erzählungen des Genres ist es der Menschheit gelungen, im Einklang mit der Umwelt zu leben – oder zumindest den Weg dahin zu beschreiten. Und das mithilfe sauberer Technologien wie Solar- und Windkraft, Wasserspeichern, nachhaltigen Batteriekonzepten, Hydroponik und Kreislaufwirtschaften, die das Wegwerfen in vielen Fällen unnötig machen. Die Gesellschaften in den Solarpunk-Erzählungen sind nicht perfekt, sie haben ihre Probleme und Herausforderungen – sonst wären diese Geschichten kaum unterhaltsam –, aber sie skizzieren vielfach einen erstrebenswerten und durchaus glaubwürdigen Rahmen für eine bessere Welt. Aus diesem Grund hat sich Solarpunk inzwischen zu einer Bewegung entwickelt, die über die Science Fiction hinausgeht. Viele Menschen wollen eine Gesellschaft und Kultur nach dem Vorbild der fiktiven Ökowelten vorantreiben. Sie wollen Solarpunk-Zivilisationen ermöglichen und ein Solarpunk-Leben leben; ein futuristisches aber nachhaltiges Dasein im Einklang mit der Natur, nicht dagegen. Selbst wenn sie dafür klein anfangen müssen : mit einer Solaranlage auf dem Balkon, einer Rad- statt Autofahrt zur Arbeit oder einem kommunalen Garten, der mit der gesamten Nachbarschaft bestellt wird. Aber geht da noch mehr? Denn im Kern vieler Solarpunk-Utopien steht auch die Hoffnung auf eine radikal andere Energievision; der Traum nicht am Strom sparen zu müssen, weil wir ihn en masse auf nachhaltige Weise erzeugen können. Und zwar auch selbst, immer und überall, so dass die Gesellschaft Fortschritt und Technologie nicht dem Kampf gegen den Klimawandel opfern muss. Glasscheiben, die Solarstrom erzeugen Tatsächlich forschen Wissenschaftler rund um die Welt daran, Solarzellen an bisher undenkbare Orte zu bringen – und dadurch überall kleine Kraftwerke zu schaffen. Eine große Hoffnung stellt dabei sogenanntes Photovoltaikglas dar, also Glasscheiben, die wie Solarzellen elektrischen Strom erzeugen. Bereits seit 2014 arbeiten Forscher der Michigan State University mit dem Unternehmen Ubiquitous Energy an einer Methode, mit der theoretisch jede glatte Glasoberfläche in eine Solarzelle verwandelt werden könnte . Denn die Glasscheiben lassen das für Menschen sichtbare Licht passieren, fangen aber Licht im nahen Infrarotbereich ab. Möglich wird das durch transparente Halbleiterschichten, die als ein Mikrometer dünne Schicht mit Vakuumtechnologie auf das Glas aufgezogen wird und damit 30 bis 50 Prozent des Stroms einer vergleichbar großen Photovoltaikzelle erzeugt. Eine Installation derartiger Solarscheiben wird derzeit getestet. Ab 2024 sollen sie in Serie gefertigt werden. Eine alternative Technik wollen Schweizer Forscher der École Polytechnique Fédérale de Lausanne perfektionieren. Sie arbeiten an sogenannten Grätzel-Zellen, die durch die Reaktion des Lichts mit einem elektrochemischen Farbstoff Strom erzeugen. Bereits seit 2012 liefern mit dieser Technik ausgestattete Fenster des SwissTech Convention Center und seit 2017 auch Fenster der Copenhagen International School einen Teil der Elektrizität, die die Gebäude verbrauchen. Rund 300 Megawattstunden und damit rund die Hälfte des Stromverbrauchs soll das Schulgebäude in Kopenhagen durch die transparenten Paneele generieren. Erst im Oktober 2022 erklärten die Forscher, dass sie eine Möglichkeit gefunden haben , die Effizienz und damit die Stromerzeugung der in verschiedenen Farben produzierbaren Scheiben drastisch zu steigern. Seit 2021 wird das Solarglas der Michigan State University mit einer Installation auf dem Campus erfolgreich getestet. ©Nick Schrader In kommenden Jahren könnten diese Technologien zahlreiche Fensterflächen vor allem in Wolkenkratzern zu massiven Energieproduzenten transformieren. Aber auch Fensterscheiben in normalen Wohngebäuden, die Abdeckungen von Werbeschildern oder auch die Scheiben in Automobilen. Noch ist der Wirkungsgrad vergleichsweise niedrig. Aber Richard Lunt, einer der Entwickler der Solarglasscheiben an der Michigan State University, ist überzeugt, dass Photovoltaikglas in Zukunft ähnlich viel zur Energiewende beitragen könnten, wie jetzt schon Photovoltaikaufbauten auf Hausdächern. „Wir haben Jahrzehnte an herkömmlichen Solarmodulen geforscht, um dahin zukommen, wo wir heute sind“, so Lunt. „An diesen transparenten Zellen arbeiten wir gerade mal einige Jahre.“ Eigene Solarenergie für alle – auch für Mieter! Die in London lebende, aus den Niederlanden stammende Designerin Mireille Steinhage sieht vor allem die Demokratisierung von Solarenergie als einen wichtigen Weg in eine Solarpunk-Zukunft. „Ich denke, Solarpunk steht für das ultimative Ziel einer nachhaltigen Zukunft, die im Moment fast wie ein Märchen erscheint“, sagt sie zu 1E9. „Für mich wäre das eine Welt im Gleichgewicht, in der die Menschheit ein Teil der Natur ist und nicht über der Natur steht. Und keine Welt mit fliegenden Autos und solchem Kram.“ Ich denke, Solarpunk steht für das ultimative Ziel einer nachhaltigen Zukunft, die im Moment fast wie ein Märchen erscheint. Mireille Steinhage Um das zu erreichen sei es essentiell, eine nachhaltige Gesellschaft schaffen – und dafür sei es wiederum nötig, „den Menschen mehr Möglichkeiten zu geben, sich selbst zu versorgen“. Insbesondere jenen, die bisher wenig Optionen haben, ihr Leben und Wohnen energetisch nachhaltiger zu gestalten. „Es gibt viele Möglichkeiten für ein nachhaltiges Leben für Menschen, die Eigentümer von Häusern sind, wie Sonnenkollektoren, Wärmepumpen, Isolierung und vieles mehr, aber fast nichts davon ist für Menschen geeignet, die zur Miete wohnen“, sagt sie. „Ich denke, wenn wir eine nachhaltige Zukunft schaffen wollen, müssen wir auch diese Menschen in die Bewegung des Wandels einbeziehen.“ Die Solardecke von Mireille Steinhage soll es auch Mietern erlauben, ohne große Anstrengungen Solarstrom zu nutzen. ©Mireille Steinhage Steinhage hat ein Solar Blanket entwickelt: eine Heizdecke, die jedoch nicht an eine Steckdose angeschlossen wird. Stattdessen befindet sich am Ende eines Kabels ein kleines Solarpaneel das an eine Fensterbank gestellt oder direkt in ein Fenster geklebt werden kann. Die Solarzellen sollen – in Kombination mit einer kleinen Powerbank – genug Strom liefern, um die in die Decke eingeflochtenen Heizfasern auf über 27 Grad zu erhitzen. Eine Wohnung lässt sich mit der dünnen Decke nicht heizen, aber sie soll in den kalten Monaten dort für Wärme sorgen, wo sie akut gebraucht wird. „Das Blanket konzentriert die Wärme auf einen unmittelbaren Raum und vermeidet die Verschwendung von Energie für das Beheizen eines ganzen Bereichs“, so Mireille Steinhage. „Die Decke ist am wirksamsten, wenn sie als wärmende Sitz- oder Liegeunterlage verwendet wird.“ Noch ist das Solar Blanket ein Prototyp, aber die Designerin sucht bereits nach Partnern, um sie zu verfeinern und letztlich produzieren zu lassen. Andere Designer verfolgen ähnliche Herangehensweise. Darunter Marjan van Aubel, die 2021 eine Solarlampe namens Sunne vorstellte, die an schlanken Drähten in ein Fenster gehängt wird und mittels integrierter Solarzellen über den Tag hinweg eine Batterie füllt. Genutzt werden die gleichen hocheffizienten Sonnenkollektoren, die auch im Solarauto Lightyear One eingesetzt werden. Am Abend soll dadurch genug Energie gespeichert sein, um die Wohnung für Stunden in atmosphärisches Dämmerlicht zu hüllen. „Ich denke, das ist eine ziemliche Revolution“, sagte Marjan van Aubel bei einer Präsentation von Sunne. Es sei das erste Haushaltsgerät, das Menschen einfach so kaufen und besitzen können, um Solarenergie in ihrer Wohnung zu nutzen. Mit einer mit 124.000 Euro finanzierten Kickstarter-Kampagne, einem Preis von mindestens 995 Euro pro Lampe und einer App für die Steuerung ist Sunne ein luxuriöses Designerstück, das sich viele wohl eher nicht leisten können, oder wollen. Aber laut Marjan van Aubel sei das Grundprinzip von Sunne im Grunde simpel und von anderen adaptierbar. „Um einen Wandel in der Wahrnehmung der Solarenergie zu fördern, muss sie auch für eine größere Gruppe von Menschen zugänglich sein“, so die Designerin. Und dafür brauche es Projekte, die „die Menschen mit der Solarenergie vertraut machen […] Sunne ist ein erster Schritt, um Solarenergie in unseren Alltag zu integrieren.“ Anziehbare Sonnenenergie Durch die Forschung an Sonnenenergie werden Solarzellen nicht nur immer effektiver und unsichtbarer. Sie werden auch zunehmend mobiler. Es gibt ganz selbstverständlich Rucksäcke, die mit Solarzellen ausgestattet sind, um unterwegs das Smartphone zu laden. Auch Jacken und Hosen mit eingesetzten oder aufknüpfbaren Solarzellen existieren . Zumindest letztere sind allerdings noch die Ausnahme, weil sie etwas unpraktisch sind und ästhetisch eher fragwürdig. „Es sieht immer total maskulin, roboterhaft und irgendwie gleich aus“, sagt Elina Ilén von der Aalto-Universität in Finnland. Sie und ein Team wollen das ändern – und zwar, indem sie Solarzellen wirklich tragbar machen. Ilén und ihre Forscherkollegen und -kolleginnen aus unterschiedlichsten Fachrichtungen arbeiten bereits seit fünf Jahren daran, „Sonnenenergie erntende Zellen in Textilien zu integrieren“. Oder anders gesagt: Sie wollen Solarzellen mit Stoff verschmelzen , um sie unsichtbar zu machen – und dadurch auch die Nachteile ausmerzen, die bisherige Solarkleidung hat. „Dazu gehören die Schadanfälligkeit durch Wasser, Kratzer oder einfach Krafteinwirkung“, sagt Elina Ilén gegenüber 1E9. Ganz so einfach ist das aber nicht, mussten die Wissenschaftler feststellen. Dennoch fanden die Finnen eine Lösung, die praktisch und alltagstauglich sei. Sie nutzen bereits kommerziell verfügbare, aber sehr kleine und flexible Solarzellen, die sich miteinander verschalten und zu bieg- und krümmbaren Oberflächen zusammensetzen lassen. Diese werden dann mit speziell dafür gestalteten lichtdurchlässigen Stoffen überzogen. „Dazu haben wir ein robustes System zur Einkapselung der Zellen entwickelt“, sagt Ilén. „Wir laminieren sie praktisch zwischen zwei Stoffschichten, so dass sie nicht mehr zu sehen sind.“ Die Zellen seien unter den Textilschichten immer noch spürbar, aber „das Verstecken der Technologie eröffnet ganz neue Gestaltungs- und Anwendungsmöglichkeiten“. Keine Solarzellen zu sehen? Genau das ist das Ziel der Forscher der Aalto Universität. Die Zellen befinden sich unter dem lichtdurchlässigen Stoff. ©Anne Kinnunen Zusammen mit den Textilproduzenten Foxa und Lindström haben die Entwickler stylische Jacken gestaltet, die die integrierten Solarmodule nicht erkennen lassen. Betrieben werden können mit dem generierten Strom der Jacken bislang kleine Sensoren – wie Feuchtigkeitsfühler, Thermometer, Beschleunigungssensoren oder Schrittzähler, wie sie in Smartwaches zu finden sind. Für mehr reicht es nicht – zumindest bislang. Um ein Smartphone zu laden, bekommen die Zellen nicht genug Sonnenlicht. Nur um wenige Prozentpunkte ließe sich der Akku mit der Jacke über einen Tag hinweg füllen. Aber die Forscher sehen trotzdem Anwendungsfälle. Etwa im Sport, bei professioneller Arbeitskleidung oder auch in der Pflege. Wer ein Smartphone oder ein anderes größeres Gerät mit Sonnenenergie aufladen will, der kommt um den Solarzellen-Rucksack momentan also nicht herum. Doch das soll sich über die kommenden Jahre, mit den Fortschritten bei der Effizienz von Solarzellen und einer Weiterentwicklung der Solarkleidung noch ändern. Mit größeren Flächen und damit mehr Solarzellen lässt sich mit dem finnischen Solarstoff bereits jetzt auch mehr Strom erzeugen. „Eine Zelle hat eine bestimmte Kapazität, daher kann man durch das Hinzufügen weiterer Zellen die Kapazität gesteigert werden“, sagt die Finnin. „Wir sehen daher durchaus relevanten Nutzen in anderen Produkten.“ Die Solarstoffentwickler können sich beispielsweise Vorhänge, Jalousien. Terrassenüberdachungen oder sogar Teppiche vorstellen. Sind diese groß genug, ließen sich damit durchaus Lademöglichkeiten für elektronische Geräte betreiben oder Batteriespeicher realisieren. Das Verstecken der Technologie eröffnet ganz neue Gestaltungs- und Anwendungsmöglichkeiten. Elina Ilén Solarplanen verwandeln Hausfassaden und Zelte in Kraftwerke Auch die Niederländerin Pauline van Dongen sieht in Stoffen mit der Kapazität, grünen Solarstrom zu erzeugen, großes Potential. Wie die Designerin auf der Konferenz The Solar Biennale im September 2022 im niederländischen Rotterdam in einem Vortrag ausführte, könne mit solchen Stoffen eine „komplett neue Ästhetik für Gebäude“ geschaffen werden – insbesondere, wenn über Europa und Nordamerika hinausgedacht würde. Van Dongen arbeitet mit dem auf Zeltdesign und Stoffproduktion spezialisierten Unternehmen Tentech an einem Suntex genannten und aus recycelten PET gewobenem Stoff, der mit Polymerstreifen aus organischen Solarzellen durchzogen ist. Er soll dadurch hochflexibel und leicht sein, aber dennoch eine kleine aber in Summe nicht unerhebliche Menge an Solarstrom erzeugen können. Laut Pauline van Dongen könnten mit diesem Stoff, der wind- und wetterfest sei, die Fassaden ganzer Häuser verkleidet und diese nahezu komplett in Solarstromkraftwerke verwandelt werden. Er könne eingesetzt werden, um Städte und Gemeinden neu zu denken und visuell zu transformieren. Er könne auch genutzt werden, um – im Zuge der Klimakrise – Gebäude in den Sommerzeiten mit einem Sonnenschutz zu versehen, der gleichzeitig einen Energiegewinn bedeutet. Aber das Material könne auch für Zelte, Markisen, Vorhänge, Sonnenschirme oder Bauplanen verwendet werden. Selbst wenn die einzelne Suntex-Plane nur wenig Strom liefere – die Masse könne einen Unterschied machen, glaubt die Designerin. Der Solarstoff Suntex soll tauglich sein, um ganze Gebäude darin einzukleiden. ©Pauline van Dongen „Ich denke, es ist wichtig, die Gesamtheit zu sehen und es ganzheitlich zu betrachten“, sagte sie auf der Konferenz. Allerdings ist Suntex ebenso wie der Solarstoff der Forscher der Aalto-Universität in Finnland noch ein Forschungs- und Entwicklungsprojekt. Die Herausforderung sei es jetzt, das Material zuverlässig und auf eine Weise in großer Menge produzieren zu können, dass es fehlerfrei und auch leicht wiederverwertbar ist. Bis dahin könnten durchaus noch einige Jahre vergehen. Mehr Solarpunk lässt sich aber nicht nur dadurch erreichen, aus was Produkte gefertigt werden, sondern auch wie. Reparierbarkeit ist punk!!! Das Design von Alltagsgegenständen, vor allem aber von Technik, die wir regelmäßig nutzen, kann und muss sogar ein essentieller Teil einer Solarpunk-Zukunft sein. Dabei geht es nicht darum, in jeden Laptop oder jedes Smartphone eine Solarzelle einzubauen. Denn auch wenn es Beispiele für solche Integration gibt, sind diese nicht zwangsläufig sinnvoll. Es kommt schließlich darauf an, dass die Geräte lange und oft genug direkten Sonnenlicht ausgesetzt sind, um wirklich einen Teil der Energie erzeugen zu können, die sie verbrauchen. Sinnvoller ist daher, Geräte auf andere Weise energetisch positiv zu gestalten – und das bedeutet vor allem: sie nachhaltig und lange nutzbar zu designen. Davon sind mittlerweile auch immer mehr Designer und Produktentwickler überzeugt. Hier lässt sich daher eine kleine, aber wachsende Bewegung erkennen. Bereits seit 2013 entwickelt und vertreibt das in den Niederlanden ansässige Unternehmen Fairphone eine Reihe gleichnamiger Smartphones. Deren Herstellung soll unter fairen Bedingungen erfolgen und die dafür nötigen Rohstoffe sollen aus Quellen stammen, die nicht unter ausbeuterischen Bedingungen erschlossen werden oder der Finanzierung von Kriegen dienen. Doch insbesondere sollen die Telefone durch einen modularen Aufbau leicht reparierbar sein – was sie auch sind. Wobei viele Nutzer und Tester noch Makel wie das vergleichsweise rechenschwache Innenleben kritisieren, das eine potentiell jahrelange Nutzung schwierig mache. Ein anderes Projekt ist der Framework Laptop des gleichnamigen Start-ups. Es ist ein kompakter und dem Macbook-Air nachempfundener Rechner, der sich im Gegensatz zu seinem Vorbild jedoch leicht öffnen, reparieren und aufrüsten lässt. Tastatur, Arbeits- sowie SSD-Speicher und sogar das Mainboard lassen sich lösen, herausnehmen und austauschen. Dazu können über kleine Module die Anschlussmöglichkeiten wie USB-, HDMI- sowie Netzwerk-Buchsen und Micro-SD-Kartenleser an den Seiten des Gerätes gewechselt und den eigenen Wünschen angepasst werden. Laut Framework-Gründer Nirav Patel sollte der Käufer eines Gerätes das Recht und die Möglichkeit haben, es zu reparieren – und so lange zu nutzen, wie es seine Aufgabe erfüllen kann. Das kommt bei einigen Nutzern durchaus an. Auch andere Hersteller wie HP wollen ihre Geräte leichter reparierbar und pflegbar machen – wie etwa das Elitebook 845 G9 zeigt, das auch mehrere Komponenten ohne große Probleme austauschen und aufrüsten lässt. Ähnliches gilt für den als Pilotprojekt gestarteten Aspire Vero von Acer , dessen Hülle zudem zu 30 Prozent und dessen Tastatur zu 50 Prozent aus wiederverwertetem Plastikmüll aus dem Ozean besteht. Es braucht Ästhetik und Design Eine Zukunft wie in Solarpunk-Geschichten scheint derzeit noch weit entfernt. Zu sehr ist unsere Gesellschaft noch von fossilen Energien abhängig, zu wenig wird für die Verkehrs- und Energiewende getan. Doch einzelne Entwicklungen und Projekte machen Hoffnung, dass Solarpunk nach und nach zu einem Teil unserer Wirklichkeit werden könnte. Laut Mireille Steinhage sei eigentlich alles da, was es für eine solarpunkige Lebensweise braucht – jedenfalls, was die Technik angeht. Die Nutzung von Solar- und Windkraft sowie die Möglichkeit, Produkte nachhaltiger und langlebiger zu gestalten, seien zwar oft noch eine Herausforderung, aber noch vielmehr eine Sache des Willens. Da sieht die Designerin Steinhage ihre Kollegen sowohl in der Pflicht als auch als treibende Kraft. Wenn Technologien und neue Konzepte wirklich in den Alltag der Menschen vordringen sollen, müssen sie auch begehrenswert und ihre Reparierbarkeit ein integraler Bestandteil ihres Designs sein, glaubt Steinhage. „Ich denke vor allem, dass all diese Technologien, die es bereits gibt, ästhetischer und ansprechender ausschauen sollten“, sagt sie. „Ich sehe immer mehr Designer, die in diese Richtung denken […], die so planen, dass sich Teile ersetzen lassen.“ Elina Ilén von der Aalto-Universität in Finnland sieht das durchaus ähnlich. Genau das sei auch einer der Antriebe, Solarzellen als Material neu und flexibel zu denken: eben um Designern und Produktgestaltern mehr Möglichkeiten und kreative Freiräume zu schaffen. Gelingt das, könnte der Weg in eine Solarpunk-Zukunft zunehmend einfacher und realistischer werden. Science-Fiction Nachhaltigkeit Design Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel!

bottom of page