Suchergebnisse
3553 Ergebnisse gefunden mit einer leeren Suche
- Future Feed | Hintertür in chinesischem Roboter-Wachhund gefunden | 1E9.community
Hintertür in chinesischem Roboter-Wachhund gefunden Future Feed Hintertür in chinesischem Roboter-Wachhund gefunden 8. April 2025 um 00:34:32 Michael Förtsch Der chinesische Roboterhersteller Unitree gilt als einer der großen Herausforderer von Boston Dynamics und anderen westlichen Roboterentwicklern. Vor allem der Roboterhund Unitree Go1 hat mit einem vergleichsweise günstigen Preis von 2.700 US-Dollar viele Käufer gefunden. Doch nun haben Sicherheitsforscher eine Hintertür entdeckt, wie CyberInsider berichtet . Nämlich eine, die den Roboterhund über einen Internettunnel mit einer Plattform namens CloudSail verbindet, über die der elektronische Vierbeiner ferngesteuert und Video- und Sensorsignale abgegriffen werden können. Das ist durchaus kritisch. Denn der Unitree Go1 wird von Sicherheitsdiensten als Wachhund und von Universitäten als Forschungs- und Entwicklungsplattform für Robotertechnologie eingesetzt. Weiterlesen Alle Artikel Weiterlesen comments debug Kommentare Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen.
- Die Corona Scribbles #26: Lasst uns Solarpunks werden! | 1E9.community
Die Pandemie ist nicht vorbei. Trotzdem könnten – und sollten – wir über die Zeit danach nachdenken. Wie können wir es, zum Beispiel, in Zukunft verhindern, in natürliche Lebensräume einzudringen und... 31. März 2021 Die Corona Scribbles #26: Lasst uns Solarpunks werden! Die Pandemie ist nicht vorbei. Trotzdem könnten – und sollten – wir über die Zeit danach nachdenken. Wie können wir es, zum Beispiel, in Zukunft verhindern, in natürliche Lebensräume einzudringen und dabei unbeabsichtigt für die nächste Zoonose zu sorgen? In ihrer Comic-Kolumne Die Corona Scribbles formuliert Julia Schneider eine mögliche Lösung: Wir werden Solarpunks! Von Julia Schneider Als Comic-Autorin wurde Julia Schneider mit dem Titel „We Need To Talk, AI“ , auf Deutsch: „KI, wir müssen reden“, bekannt, den sie im letzten Jahr in Zusammenarbeit mit der Illustratorin Lena Kadriye Ziyal veröffentlichte. Auch bei 1E9 wurde er vorgestellt. Aktuell arbeitet Julia an diesem Comic-Kaleidoskop zu Schatten und Licht in der Corona-Krise: Die Corona Scribbles . Mit kurzen, persönlichen Text-Snippets und vereinfachten, eingängigen Schwarz-Weiß-Zeichnungen lädt sie Euch ein auf die Reise durch Aspekte unserer neuen Corona-Realität – als Angebot, sich eine eigene Meinung zu bilden und gerne als Input für eine Diskussion mit Euch. Durch Klicken auf das Bild kommt ihr in den Galerie-Modus, in dem das Comic größer dargestellt wird. Am Smartphone könnt ihr auch einfach zoomen. © Julia Schneider Alle Folgen der Corona Scribbles findest du hier. Für diese Folge bedankt sich Julia bei Stefan Greiner, solarpunks.de und @solarpunks_bln . Wer selbst Solarpunk werden will, findet in diesem 1E9-Artikel Inspiration! Julia Schneider, alias @juliaschneider , ist Autorin und promovierte Volkswirtin. Sie ist Mitglied des wissenschaftlichen Ausschusses des VDEI Verbandes der Exoskelettindustrie e.V., des Netzwerks efas – Wirtschaft, Feminismus und Wissenschaft und Teil des Track Teams Wissenschaft und Technik der re:publica. Zuvor arbeitete sie als Forscherin und Beraterin in den Bereichen empirische Arbeitsmarkt- und Innovationsforschung sowie als Datenstrategin. Mehr über ihre Arbeit erfahrt ihr hier ! Loading... Doc J Snyder | Julia Schneider Comic Essayistin, Volkswirtin, Ex-AI Consultant Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! b888692c-d1c9-45be-929b-b88369b5a549 6992e698884976137da92e32
- Future Feed | Der Regisseur von Challengers soll das OpenAI-Drama verfilmen. | 1E9.community
Der Regisseur von Challengers soll das OpenAI-Drama verfilmen Future Feed Der Regisseur von Challengers soll das OpenAI-Drama verfilmen 14. Juli 2025 um 12:44:36 Michael Förtsch Es war wie in einem Krimi! Ende 2023 wurde Sam Altman vom Aufsichtsrat von OpenAI als CEO abgesetzt. Die Gründe? Trotz Enthüllungsbüchern über den Milliardär und Exklusivinterviews von Beteiligten sind sie bis heute nicht ganz klar. Die Personalie sorgte für Aufruhr im Silicon Valley. Es machten zahlreiche Gerüchte die Runde. Satya Nadella bot Sam Altman an, mit allen, die auch wollten, von OpenAI zu Microsoft zu wechseln. Doch bereits wenige Tage später kehrte Sam Altman zu seinem Chefposten zurück. Wie der Hollywood Reporter berichtet , will Amazon die Geschichte über sein Filmstudio unter dem Titel Artificial verfilmen. Das Drehbuch stammt von Comedy-Autor Simon Rich, der bereits zuvor An American Pickle abfasste. Die Regie soll Luca Guadagnino übernehmen, der zuletzt die Filme Challengers und Queer gedreht hat. Als Besetzung für Sam Altman wird der Spider-Man-Darsteller Andrew Garfield gehandelt, für Monica Barbaro als Mira Murati und für Yura Borisov als Ilya Sutskever. Die Produktion und der Dreh könnten noch in diesem Jahr abgeschlossen werden. Weiterlesen Alle Artikel Weiterlesen comments debug Kommentare Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen.
- Es sind nicht nur Videos, die TikTok so erfolgreich machen, sondern Künstliche Intelligenz | 1E9.community
Die Kurzvideo-App TikTok erlebt einen Hype. Verantwortlich dafür sind nicht nur die Inhalte, sondern auch ein ausgefeiltes System von Algorithmen, das den Nutzern genau das zeigt, was sie sehen wollen... 24. August 2020 Es sind nicht nur Videos, die TikTok so erfolgreich machen, sondern Künstliche Intelligenz Die Kurzvideo-App TikTok erlebt einen Hype. Verantwortlich dafür sind nicht nur die Inhalte, sondern auch ein ausgefeiltes System von Algorithmen, das den Nutzern genau das zeigt, was sie sehen wollen. Der US-Präsident Donald Trump sieht TikTok jedoch als Bedrohung – denn die Macher der App sitzen in Peking. Daher soll das US-Geschäft der chinesischen App an ein US-Unternehmen verkauft werden. Doch dadurch könnte TikTok das verlieren, was seinen Erfolg ausmacht: die Künstliche Intelligenz. Von Michael Förtsch Auf TikTok passiert wahnsinnig viel. Es wird gesungen, getanzt, es werden ganz eigene Kunst- und Kulturformate geschaffen. Vieles davon wirkt für Außenstehende abstrakt und unverständlich. Gar albern und abseitig. Aber in den letzten Monaten hat TikTok als Plattform immer wieder demonstriert, was für einen Einfluss dessen Nutzerschaft auf die reale Welt entwickeln kann. Gerade erst brachten die Nutzer den Phil-Collins-Song In The Air Tonight zurück in die Charts. Sie ließen die Satire-Kryptowährung Dogecoin im Wert ansteigen. Und im Juni sorgten K-Pop-Fans auf TikTok dafür, dass Donald Trump seine Rede in Tulsa, Oklahama vor zahlreichen leeren Plätzen halten musste . Außerdem ist TikTok, anders als gerne porträtiert , nicht nur ein Ort der unbeschwerten Belanglosigkeiten. Es werden durchaus ernste Themen angeschnitten, Menschenrechtsprobleme aufgegriffen und politische Debatten geführt – nicht fehlerfrei oder unbedenklich, aber immerhin. Beides ist dabei nicht immer so einfach. Denn hinter TikTok steht das erst 2012 gegründete und in Peking, China sitzende Unternehmen ByteDance – eigentlich Beijing Bytedance Technology Ltd. – das mit der chinesischen Nachrichten-App Toutiao groß wurde. Und das verfolgt strenge und zuweilen ziemlich undurchsichtige Regeln , wie, was und warum etwas auf der Plattform geduldet, unterdrückt oder zensiert wird oder auch nicht. Der Ursprung TikTok startete im September 2016 als eine rein chinesische Video-Sharing-Plattform namens A.me , die schnell in Douyin umbenannt wurde und binnen eines Jahres 100 Millionen Nutzer ansammelte. Ende 2017 kaufte ByteDance das chinesisch-amerikanische Start-up Musical.ly und dessen gleichnamigen Musik-, Video- und Lip-sync-Dienst, der zu diesem Zeitpunkt schon über 200 Millionen Nutzer hatte. Im Herbst 2018 wurden beide Dienste verschmolzen: zu TikTok. Und das mit immensen Erfolg. Derzeit ist TikTok in 75 Sprachen verfügbar und verfügt – Zeitpunkt Juli 2020 – über 800 Millionen Nutzer. Die verbringen im Durchschnitt 52 Minuten pro Tag in der App . Damit besitzt TikTok – respektive ByteDance – eine große Macht: Denn es sammelt von den Nutzern massenhaft Daten. Und einige US-Behörden mutmaßen, dass die an die chinesische Führung gehen – selbst, wenn sogar die CIA dafür keine Belege findet . Das schürt Sorgen. US-Militärs ist daher die Nutzung von TikTok schon lange verboten. Nun soll ByteDance sogar gezwungen werden, den TikTok-Dienst für die USA (und damit wohl gleich auch für Kanada, Australien und Neuseeland) zu verkaufen . Dagegen will sich ByteDance aber wehren . Doch selbst wenn der Erfolg von TikTok als Videoplattform geradezu gigantisch ist, ist diese nur der sichtbare Teil des Tuns von ByteDance. Deutlich wichtiger und betrachtenswerter ist, was dahinter geschieht: Big Data und die Entwicklung von Künstlicher Intelligenz – das eigentliche Kerngeschäft des Unternehmens. Das zeigte sich schon vor TikTok in der Nachrichten-App Toutiao. Die sammelt Artikel und Videos aus über 5.500 Quellen. Kuratiert wurden und werden die aber nicht von Menschen, sondern einer Künstlichen Intelligenz, die von ByteDance’ AI Lab stetig weiter entwickelt wird. Jeder der rund 120 Millionen Nutzer bekommt dadurch einen auf seine ganz eigenen Interessen und Vorlieben zugeschnittenen Datenstrom. Die Zentrale Plattform Was ByteDance in seinem AI Lab macht, das ist eigentlich recht gut einsehbar – einfach auf der Website des Unternehmens. Darunter sind Themen wie Empfehlungssysteme, Datenvisualisierung, automatisierte Übersetzungen, die KI-gestützte Analyse von sozialen Netzwerken oder Sprach- und Textverarbeitung. Aber auch Spracherkennung und Stimmzuordnung, Sprachsynthese, Gesichtserkennung, 3D-Rekonstruktionen aus 2D-Bildern oder Visual Question Answering , also der Versuch, einer Künstlichen Intelligenz beizubringen , nicht nur einzelne Elemente in Bildern und Videos zu erkennen, sondern auch deren Kontext zu verstehen und Fragen dazu zu beantworten. All diese Werkzeuge und Experimente sollen auf einem eigens vom AI Lab entwickelten und sehr flexiblen Software-Framework aufbauen, das vom Unternehmen zhongtai – zu Deutsch: zentrale Plattform – genannt wird . In China gilt ByteDance damit als eines der führenden Unternehmen , was KI-Entwicklung angeht. Unter den Tools, die ByteDance entwickelt und die insbesondere für TikTok interessant sind, sind Systeme, die präzise die Bewegungen von Menschen in Videos erkennen können – sowohl vom Körper, dem Gesicht als auch von den Händen. Es werkelt auch an einem Werkzeug, mit dem sich TikToker in ihren Videos nicht nur Filter auf das Gesicht und den Bildvordergrund legen, sondern auch beispielsweise die Länge ihrer Beine verändern können. Aber allen voran hat ByteDance ein System entwickelt, das Nutzern das zeigt, was sie sehen wollen – oder zumindest, was sie scheinbar sehen wollen –, das vorhersagt, was trenden könnte und die Nutzer so vor dem Smartphone hält. Nicht nur bei TikTok, sondern auch anderen ByteDance-Video-Plattformen wie Vigo Video, TopBuzz, BuzzVideo oder Zigua Video, die im Westen jedoch vollkommen unbekannt und auch weit weniger erfolgreich sind . Bei TikTok ist die Kontrolle der Künstlichen Intelligenz anders als bei den anderen Video-Apps nicht nur ein Faktor, sondern der Faktor überhaupt – nur die Moderatoren können die KI-Entscheidungen aushebeln. Dafür lernt die Künstliche Intelligenz aus den zahlreichen Informationen, die die Nutzer beiläufig zurücklassen. Was sie schauen, welche Videos sie bis zu Ende laufen lassen, welche sie erneut schauen, welche sie wegwischen, wie schnell sie sie wegwischen, was geliked und kommentiert wird und vieles mehr. Anhand der zunächst wenigen Hundert, nach einigen Tagen wohl schon Zehntausenden Datenpunkten wird eine Landkarte der Nutzerinteressen erstellt. Deren Zielsicherheit grenzt laut dem Tech-Blogger Eugene Wei an den gedankenlesenden Zauberhut aus Harry Potter , der entscheidet, welcher Zauberlehrling zu Gryffindor, Hufflepuff, Ravenclaw oder Slytherin passt. Das heißt, sagt Wei: TikTok erkennt auch, welcher Subkultur jemand anhängt und stellt dadurch sicher, dass beispielsweise ein Gangster-Rap-Fan keinen Bubblegum-Pop vorgesetzt bekommt und umgekehrt. „Was den einen zusammenzucken lässt, das macht dem anderen Spaß“, schreibt der Blogger. „TikToks Algorithmen sortieren die Nutzer in Dutzende über Dutzende von Subkulturen ein.“ Damit die dann auch das richtige zu sehen bekommen, analysiert die TikTok-KI auch unzählige Aspekte der Videos, die hochgeladen werden. Sie versucht , so schreibt der Daten-Wissenschaftler Daksh Trehan , zu identifizieren, was in den Videos zu sehen ist, was gesprochen wird, welche Musik läuft, wie die Audio- und Videoqualität ausfällt. Und natürlich welche Hashtags vergeben wurden und ob diese zum Inhalt passen. Das System von TikTok soll erkennen können, ob Videos in der freien Natur oder der Wohnung aufgenommen sind, ob und welche Tiere vorkommen oder nur Menschen. Ob ein Video eher ruhig oder aufregend ist. Und natürlich: ob der TikToker tanzt, Sport macht, koch oder sonst etwas. Dadurch können ähnliche und korrelierende Videos erkannt, gruppiert und gezielt an Nutzer ausgespielt werden. Daher braucht ein Nutzer bei TikTok keinen einzigen Follower oder viele Views, um mit einem Video viral zu gehen, sondern nur die Entscheidung der Künstlichen Intelligenz, dass das Video gut ist und vielen Menschen gefallen könnte. Und was gut geht, das weiß die KI eben daher, wie die Nutzer zuvor auf Videos und deren Inhalte reagierten. Laut der KI-Forscherin Catherine Wang ist genau dieses Zusammenspiel aus Inhalten und einer Inhalte lenkenden Künstlichen Intelligenz, das, was TikTok so besonders macht . Die Nutzer suchen und entdecken nicht Inhalte, sondern sie bekommen sie passend zu ihren Vorlieben serviert . Wie und wonach die Künstliche Intelligenz von TikTok die Videos genau auswählt, die gepushed werden, welche Videos untergehen oder wie die Gewichtung der Vorlieben ausschaut, dabei herrscht keine Transparenz, das ist ein großes Geheimnis. Daher existieren wilde Theorien dazu, wie die Künstliche Intelligenz gelockt oder motiviert werden könnte, die eigenen Videos präferiert auszuspielen. TikTok ist nichts ohne die KI Natürlich ist TikTok nicht die einzige große und erfolgreiche Social-Media- oder Medien-Plattform, die Künstliche Intelligenz einsetzt. Nutzer werden auch auf YouTube, Facebook oder auch Netflix mit Empfehlungsalgorithmen konfrontiert , die sie bei der Stange halten sollen. Sie spielen über YouTube-Autoplay das nächste Video aus, das offenbar zum vorherigen passt und schlagen auf der Startseite dann Videos vor, die widerspiegeln, was der Zuschauer zuletzt auf YouTube schaute. Auf Facebook sortieren Algorithmen Beiträge, Bilder und Videos von Freunden, die ganz besonders interessieren oder zu einem Kommentar provozieren könnten. Und Netflix empfiehlt Filme und Serien, die gut zu den Vorlieben der Zuschauer passen. Wie genau die funktionieren, das ist natürlich auch hier jeweils Betriebsgeheimnis. Klar ist jedoch, auch hierfür lernen Künstliche Intelligenzen, was den Nutzern gefällt. Oder zumindest gefallen könnte. Die KIs dieser Plattformen achten jedoch viel eher darauf, was Nutzer und andere, die ähnliche Beiträge oder Videoinhalte klicken, beispielsweise mit einem Like, Daumen-Oben oder Sternchen markieren oder einem Abo belohnen. Oder wo sie sogar einen Kommentar hinterlassen. Und das in Relation dazu, ob das Video, der Film, die Serie zu Ende geschaut wurde, Playlists und Serien durch-gebinged wurden, wie lange der Videoinhalt dauerte und zu welchen Uhrzeiten das geschah . Zusätzlich verlassen sich die Algorithmen auf Schlagworte, Beschreibungen der Videos, Überschneidungen bei Genre-Bezeichnungen – Netflix hat dafür Aberhunderte Mikro-Genres geschaffen –, der Besetzung, Vorschaubilder und der Überzeugung, dass Menschen, die Ähnliches schauen, Ähnliches gefallen wird. Ebenso fallen die Wege der Nutzer durch Listen mit verwandten Videos, Top-Filmen und Serien und die Verweildauer auf empfohlenen Beiträgen ins Gewicht . Auch ein Blick in die Videos, eine Analyse der Inhalte findet auf YouTube und Facebook durchaus statt – schon, um Copyright-Verletzungen sowie das Hochladen von Pornografie und illegalen Inhalten zu vermeiden –, fällt bei der Empfehlung aber nicht oder nur kaum ins Gewicht. Wie gut beziehungsweise schlecht das zeitweise funktioniert, das dürften viele wissen, die sich immer wieder über besonders treffende oder grotesk unzutreffende Empfehlungen wundern. Auch Werbung hilft – und viel Geld Es ist nicht nur die Künstliche Intelligenz, die den Erfolg von TikTok begründet hat, sondern auch Werbung. ByteDance soll rund eine Milliarde US-Dollar ausgegeben haben , um auf Plakatwänden, auf Facebook, Instagram, Twitter und anderen Plattformen für den eigenen Service zu werben. An Silvester 2019 ließ TikTok Inhalte seiner zehn beliebtesten Creators an das Burj Khalifa projizieren , das höchste Gebäude der Welt. Nicht ohne Erfolg. Die Werbung half, TikTok zu einer der erfolgreichsten Apps auf iOS- und Android-Geräten zu machen. Derzeit wird der Wert von TikTok mit rund 50 Milliarden US-Dollar bewertet. Aber vor allem: Der Nutzer ist auf diesen Plattformen derjenige der Kontrolle hat, die KI gibt auf YouTube, Facebook und Netflix nur Vorschläge. Bei TikTok ist das ganz anders: „TikTok präsentiert dem Benutzer nie eine Liste mit Empfehlungen wie Netflix und YouTube und fordert den Benutzer nie auf, zu sagen, was er will“, schreibt die Tech-Analystin und Investorin Connie Chan . „Die Plattform schlussfolgert und entscheidet vollständig selbst, was der Benutzer sehen soll.“ Damit sei TikTok die erste international erfolgreiche „Mainstream-Anwedung für Verbraucher, bei der die Künstliche Intelligenz das Produkt ist“ . Bei den anderen Plattformen sind die Inhalte das Produkt und die KI lediglich eines von vielen Werkzeugen. Tatsächlich ist ByteDance bei näherer Betrachtung kein Social-Media- oder Medien-Unternehmen wie Facebook, YouTube oder Netflix, das auch an Künstlicher Intelligenz forscht. Sondern es ist ein Forschungs- und Entwicklungsunternehmen für Künstliche Intelligenz, das diese auf sozialen Netzwerken wie TikTok einsetzt – und darüber Daten sammelt, mit denen es Künstliche-Intelligenz-Systeme trainiert. Je mehr Daten zur Verfügung stehen, umso ausgefeilter, komplexer und damit fähiger kann eine Künstliche Intelligenz werden. Und umso vielfältiger können die Einsatzmöglichkeiten sein. Allein die Bild-, Video- und Sprachdaten, die ByteDance sammelt und verarbeitet, sind unbezahlbar. Ryan Holmes, der Gründer des Social-Media-Management-Tools Hootsuite, fragte daher bereits im vergangenen Jahr, ob TikTok eine „tickende Zeitbombe“ sei . Denn die gleichen Künstlichen Intelligenzen, die TikTok derzeit nutzt, um die Videos zu analysieren und zu kategorisieren, könnten eingesetzt werden, um Videos von in China verfolgten Uiguren zu unterdrücken oder diese gezielt ausfindig zu machen. Oder Aktivisten aus Hongkong. Auch stellt sich die Frage, was die Firma, die das US-Geschäft von TikTok kaufen könnte, eigentlich bekommt. Denn die Plattform TikTok und deren Nutzer und Videos sind nicht das, was TikTok ausmacht. Sondern das KI-Gerüst und dessen Sortier-, Analyse- und Muster-Modelle, die ByteDance erschaffen hat. Diese wird das chinesische Unternehmen wohl kaum herausrücken, wie The Information bereits im Juli schrieb . Es ist schließlich das, worauf ByteDance seinen Erfolg und Wert gründet. Übernähme Microsoft, Oracle oder Twitter oder sonst ein Unternehmen einen Teil von TikTok, müsste es dann eigens und von Grund auf ein neues KI-System entwickeln, das Daten sammelt und das Rezept, den Look & Feel , die Geschmackstreffsicherheit von TikTok rekonstruiert. Wie gut, und ob das überhaupt machbar ist, das ist die große Frage, an der sich auch entscheidet, ob TikTok und seine Kultur, sein Einfluss auf die Gesellschaft ohne ByteDance und dessen Künstliche Intelligenz überhaupt vorstellbar ist. Loading... Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! 45607a14-d07b-470b-94d7-5883356f6985 6992edfd7ecf4e1c5f03acfa
- Die Corona Scribbles #22: Von Taiwan lernen? | 1E9.community
Der zweite harte Lockdown steht bevor. Hätte dieser verhindert werden können, wenn wir auf Politik gesetzt hätten, die etwa in Taiwan die Ausbreitung des Coronavirus bisher verhinderte. Vielleicht... 15. Dezember 2020 Die Corona Scribbles #22: Von Taiwan lernen? Der zweite harte Lockdown steht bevor. Hätte dieser verhindert werden können, wenn wir auf Politik gesetzt hätten, die etwa in Taiwan die Ausbreitung des Coronavirus bisher verhinderte. Vielleicht. Doch die eine Maßnahme, die den Unterschied machte, gibt es wohl nicht. Eine ganze Reihe von Faktoren spielt wohl eine Rolle. In ihrer Comic-Kolumne Die Corona Scribbles geht Julia Schneider diesen auf den Grund. Von Julia Schneider Als Comic-Autorin wurde Julia Schneider mit dem Titel „We Need To Talk, AI“ , auf Deutsch: „KI, wir müssen reden“, bekannt, den sie im letzten Jahr in Zusammenarbeit mit der Illustratorin Lena Kadriye Ziyal veröffentlichte. Auch bei 1E9 wurde er vorgestellt. Aktuell arbeitet Julia an diesem Comic-Kaleidoskop zu Schatten und Licht in der Corona-Krise: Die Corona Scribbles . Mit kurzen, persönlichen Text-Snippets und vereinfachten, eingängigen Schwarz-Weiß-Zeichnungen lädt sie Euch ein auf die Reise durch Aspekte unserer neuen Corona-Realität – als Angebot, sich eine eigene Meinung zu bilden und gerne als Input für eine Diskussion mit Euch. Durch Klicken auf das Bild kommt ihr in den Galerie-Modus, in dem das Comic größer dargestellt wird. Am Smartphone könnt ihr auch einfach zoomen. © Julia Schneider © Julia Schneider Alle Folgen der Corona Scribbles findest du hier. Julia Schneider, alias @juliaschneider , ist Autorin und promovierte Volkswirtin. Sie ist Mitglied des wissenschaftlichen Ausschusses des VDEI Verbandes der Exoskelettindustrie e.V., des Netzwerks efas – Wirtschaft, Feminismus und Wissenschaft und Teil des Track Teams Wissenschaft und Technik der re:publica. Zuvor arbeitete sie als Forscherin und Beraterin in den Bereichen empirische Arbeitsmarkt- und Innovationsforschung sowie als Datenstrategin. Mehr über ihre Arbeit erfahrt ihr hier ! Loading... Doc J Snyder | Julia Schneider Comic Essayistin, Volkswirtin, Ex-AI Consultant Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! 0e2edbce-dbd8-4d12-9310-2f50c4170788 6992e8ac7ecf4e1c5f039e83
- Future Feed | Die ersten Robotaxis von Tesla sind unterwegs | 1E9.community
Die ersten Robotaxis von Tesla sind unterwegs Future Feed Die ersten Robotaxis von Tesla sind unterwegs 14. Juli 2025 um 12:44:36 Michael Förtsch Diesmal hat Tesla eine Ankündigung von Elon Musk tatsächlich eingehalten. Wie Videos zeigen, sind erste Tesla-Robotaxis in Austin, Texas, auf den Straßen unterwegs. Es handelt sich dabei jedoch nicht um die goldenen Cybercab-Fahrzeuge, die das Unternehmen im Oktober 2024 vorgestellt hat, sondern um modifizierte Tesla Model Y. Diese fahren zudem bisher nur vereinzelt und werden von Begleitfahrzeugen mit Fahrern verfolgt, die im Notfall eingreifen sollen. Tatsächlich hatte Tesla angemerkt, dass die Testphase für die selbstfahrenden Wagen mit „viel Teleoperation“ verbunden sein werde – also mit Menschen, die bei Problemen aus der Ferne die Kontrolle übernehmen. Weiterlesen Alle Artikel Weiterlesen comments debug Kommentare Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen.
- Future Feed | Xiaomi plant Automobilentwicklung in München | 1E9.community
Xiaomi plant Automobilentwicklung in München Future Feed Xiaomi plant Automobilentwicklung in München 14. Juli 2025 um 12:44:36 Michael Förtsch Das Unternehmen Xiaomi ist in Deutschland vor allem als Entwickler von Smartphones bekannt. Doch der chinesische Technologiekonzern baut auch Elektroautos – und das durchaus erfolgreich. Diese sollen künftig auch außerhalb der Volksrepublik verkauft und in Deutschland mitentwickelt werden. Dafür hat das Unternehmen bereits mehrere Ingenieure von deutschen Autoherstellern wie BMW abgeworben . Laut TechInAsia soll das Forschungs- und Entwicklungszentrum des chinesischen Konzerns in München entstehen . Dort soll unter anderem eine Rennversion der Sportlimousine Xiaomi SU7 konzipiert und für den europäischen Markt angepasst werden. Darüberhinaus soll das Fahrzeug unter anderem auf dem Nürburgring getestet werden. Eine Vertriebs- und Marketingabteilung für die Fahrzeuge soll wiederum in Düsseldorf entstehen. Weiterlesen Alle Artikel Weiterlesen comments debug Kommentare Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen.
- Das berühmte Arecibo-Observatorium wird geschlossen | 1E9.community
Das Arecibo-Observatorium auf Puerto Rico ist eines der größten Radioteleskope der Welt und aus zahlreichen Filmen bekannt. Doch in den vergangenen Monaten wurde es schwer beschädigt. Es droht der Ein... 20. November 2020 Das berühmte Arecibo-Observatorium wird geschlossen Das Arecibo-Observatorium auf Puerto Rico ist eines der größten Radioteleskope der Welt und aus zahlreichen Filmen bekannt. Doch in den vergangenen Monaten wurde es schwer beschädigt. Es droht der Einsturz. Daher soll es aufgegeben werden. Von Michael Förtsch Es gibt wohl kaum jemanden, der es noch nicht gesehen hat. Sei es in Filmen wie James Bond: Goldeneye , Contact oder einem Fernsehbericht über die Suche nach Außerirdischen und kosmischen Phänomenen: das Arecibo-Observatorium auf Puerto Rico ist das wohl bekannteste Radioteleskop der Welt und mit seinem 305 Meter durchmessenden Spiegel eines der größten wissenschaftlichen Werkzeuge der Geschichte. Gebaut wurde es vom Sommer 1960 bis 1963 als Projekt der Militärforschungsorganisation ARPA. Zunächst wurde es daher vom US-Militär betrieben. Erst 1969 wurde es der Forschungsbehörde National Science Foundation unterstellt, die es für die astronomische Nutzung auf- und ausbaute und seit 2018 gemeinsam mit der University of Central Florida verwaltet. Das Arecibo-Observatorium wurde also seit Jahrzehnten für die Erforschung der Erdatmosphäre und erdnaher Asteroiden sowie die Suche nach Pulsaren und extrasolaren Planeten genutzt. Ebenso wurden mit Hilfe der riesigen Sende- und Empfangsanlage Radarkarten der Venus und des Merkur angefertigt. Daneben wurde die Antenne auch genutzt, um ins All zu lauschen – in der Hoffnung, Hinweise oder Signale von anderen intelligenten Lebensformen im All aufzufangen . Im Jahr 1974 hatte der Forscher Frank Drake über die Antenne auch eine der ersten Nachrichten an mutmaßliche Außerirdische ins All gesendet – genauer: in Richtung des Sternenhaufens M13. Die Nachricht ist heute als Arecibo Message bekannt. Geplant war, das Observatorium auch für die kommenden Jahrzehnte weiterhin für wissenschaftliche Forschung zu nutzen. Jedoch kam es im August dieses Jahres zu einem Unfall . Ein 7,5 Zentimeter dickes Kabel riss und fiel auf die Schüssel, wodurch ein 30 Meter breites Loch entstand. Das Kabel war Teil einer 18 Stahlseile umfassenden Sicherungskonstruktion, die die 900 Tonnen schwere Instrumentenanlage über der Schüssel in Position hält. Anders als es auf Fotografien der Anlage erscheint, wurde die 305-Meter-Schüssel nicht in den Boden des Dschungels von Puerto Rico hineingebaut. Sie ist nicht massiv, sondern besteht aus 40.000 Platten, die auf einem Netz aus Kabeln in der Luft hängen. Dieses Netz wird wiederum durch Stahlseile und Stützen getragen, die bereits durch den Hurrikan Maria im Jahr 2017 leicht beschädigt worden waren. Die Instrumentenplattform ist über die Jahre stetig gewachsen. Derzeit wiegt sie rund 900 Tonnen. Eine Lastverlagerung soll dazu geführt haben, dass zwei der Seile rissen, die sie in Position halten. ©National Astronomy and Ionosphere Center Ein weiterer Schaden Ingenieure versuchten die betroffenen Stellen mit Stützen und weiteren Kabeln abzusichern und Ankerpunkte der Plattform zu entlasten. Am Dienstag dieser Woche sollten nun eigentlich die Reparaturen an der Anlage beginnen. Allerdings war am 6. November ein weiteres Tragseil der Instrumentenplattform gerissen und hat einen zusätzlichen Schaden nahe dem Zentrum der Antennenanlage verursacht. Statiker schätzen, dass sich im Laufe der Jahre die Last der schweren Konstruktion verschoben und einzelne bereits geschwächte Tragseile überfordert hat. Es ließe sich nicht mit Sicherheit sagen, wie stabil die verbleibenden Kabel sind, die die Instrumentenplattform halten. Es wäre durchaus denkbar, dass ein weiteres Kabel platzt und die Plattform in die Antennenanlage stürzt. Wie das Magazin Nature meldet , entschieden die Verantwortlichen der National Science Foundation daher nun, dass Reparaturmaßnahmen zu gefährlich sind. Stattdessen wird das Arecibo-Observatorium aufgegeben und geschlossen. Schon nach dem ersten Schaden waren aktive Forschungsarbeiten mit der Antennenanlage eingestellt worden. Begonnene Forschungsprojekte sollen so gut wie möglich auf andere Radioteleskope verlagert und das Arecibo-Teleskop nach und nach abgewickelt werden. Wobei einige Forscher das Riesenteleskop bereits als „einzigartig“ und für die Forschung nahezu „unersetzbar“ bezeichnet haben . Michael Nolan, der ehemalige Leiter des Observatoriums, und einige weitere Forscher kritisieren die Entscheidung, die Anlage aufzugeben. „Ich bin enttäuscht“, sagte Nolan gegenüber National Geographic . „Das heißt: Vor allem bin ich traurig.“ Laut der National Science Foundation hätten sich das Wissenschafts- und Verwaltungsteam die Entscheidung zur Schließung nicht leicht gemacht. Auch, weil bereits mehrere Aufrüstungen des Observatoriums geplant waren. Darunter war eine 5,8 Millionen US-Dollar teure Erweiterung der nun gefährdeten Instrumentenplattform, die die Sensitivität der Antenne dramatisch verbessern sollte. Das nächste Riesenobservatorium wird für den Mond geplant Wie mit dem Teleskop im Detail weiter verfahren wird, das ist noch nicht entschieden. Nach Möglichkeit soll die schwere Instrumentenplattform langsam abgesenkt werden, um weiteren Schaden zu verhindern und Bauelemente des Antennenequipments zu retten. Ob der riesige Spiegel ebenfalls abgebaut oder in seinem jetzigen Zustand bewahrt werden soll, das ist unklar. Unter dem Hashtag #WhatAreciboMeansToMe teilen Forscher und Fans auf Twitter ihre Erinnerungen und plädierten in Teilen dafür, die Anlage als Denkmal und Sehenswürdigkeit für die Nachwelt zu erhalten. Der spirituelle Nachfolger des Arecibo-Observatorium ist das Five-hundred-meter Aperture Spherical Telescope – kurz: FAST –, das 2016 im chinesischen Kedu fertiggestellt wurde. Mit einem Spiegeldurchmesser von 520 Meter hatte es das Arecibo-Observatorium nach mehr als 50 Jahren als das weltgrößte Radioteleskop abgelöst. Pläne, auch das FAST zu übertrumpfen, gibt es derzeit nicht. Jedenfalls nicht für die Erde. Jedoch prüft die NASA die Möglichkeit, ob sich Krater auf dem Mond in riesige Radioparabolspiegel umfunktionieren lassen . Die bringen bereits die ideale Form mit und müssten lediglich mit einem Drahtgeflecht ausgelegt werden. Dadurch könnte mit vergleichsweise wenig Aufwand eine Antennenschüssel mit Durchmessern von drei bis fünf Kilometern und noch mehr geschaffen werden. Loading... Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! 218dcf1f-2610-4c25-9127-488ad9892a3f 6992e95fcf429c4fcb4b93f6
- Filmische Illusion aus dem Computer: Von Pepper’s Ghost über den Green Screen bis zu StageCraft | 1E9.community
Welche Szenerien, Objekte und Wesen sind real? Welche entstammen dem Computer? Mit immer ausgefeilteren Effekten lässt die Filmindustrie längst die Grenzen zwischen analoger und digitaler Welt verschw... 6. Juni 2021 Filmische Illusion aus dem Computer: Von Pepper’s Ghost über den Green Screen bis zu StageCraft Welche Szenerien, Objekte und Wesen sind real? Welche entstammen dem Computer? Mit immer ausgefeilteren Effekten lässt die Filmindustrie längst die Grenzen zwischen analoger und digitaler Welt verschwimmen. Dabei spielt der Green Screen nach wie vor eine zentrale Rolle. Doch eine Technologie, die bei The Mandalorian zum Einsatz kam, könnte ihn ablösen. Von Adriano D’Adamo Ein Mann in einer metallenen Rüstung sitzt in einer einsamen Wüste. Die Abendsonne spiegelt sich auf seinem Helm wider, während sie am Horizont verschwindet. An seiner Seite befindet sich sein einziger Gefährte – und Liebling des Internets: Baby Yoda . Neben der Kunst, eine kleine Puppe viral gehen zu lassen, demonstrierte die Star-Wars-Serie The Mandalorian auch noch eine neue Technologie, die eine gesamte Industrie weiterbringen könnte. Auch in dieser scheinbar klassischen Szene. Die Disney-Plus-Serie stammt, wie die neueren Star-Wars-Filme, zum Großteil aus dem Computer. Das Studio setzte viel auf CGI – also auf Computer-Generated-Imagery. Objekte, Figuren oder ganze Landschaften wurden von Designer:innen am Rechner erschaffen. So weit so bekannt. Doch für The Mandalorian wurden technologische Fortschritte ausgenutzt und verbunden, die dazu beitragen, dass sich die CGI-Erzeugnisse mittlerweile nahtlos an „echte“ Objekte, Figuren und ganze Landschaften anschmiegen. Die Entwicklung von künstlichen Effekten und optische Illusionen in der Filmbranche erreicht damit einen neuen Höhepunkt – ein neues Phänomen ist sie allerdings nicht. Genau genommen gibt es solche Tricks schon seit fast 200 Jahren. Der Urahn aller Spezialeffekte Ein optischer Trick aus dem 19. Jahrhundert heißt Pepper’s Ghost , benannt nach dessen Erfinder John Henry Pepper. Damit lässt sich eine Art Hologramm erschaffen – in Form von halbtransparenten Gestalten und Objekten, die auftauchen und wieder verschwinden. Damit der gewünschte Effekt eintritt, wird ein Flachglas von beiden Seiten beleuchtet. Vor allem auf Theaterbühnen kommt Pepper’s Ghost heute noch zum Einsatz, wenn etwas mysteriös „verschwinden“ soll. Auch Freizeitparks setzen darauf, wie zum Beispiel im Themenbereich von Harry Potter in den Universal Studios in Orlando. Am legendären Gleis 9 ¾ können die Leute „durch die Wand laufen“. In den Büchern und Filmen tun die Figuren das, um in die Welt der Zauberei zu gelangen. Besucher:innen im Freizeitpark kommen lediglich auf der anderen Seite der Wand heraus. Trotzdem sieht es aus einem anderen Winkel aus, als sie darin verschwinden. Eine kleine Illusion – ganz ohne Computer. Große Produktionen nutzen solche Tricks normalerweise nicht mehr. Stattdessen kommt sehr häufig ein Green Screen – früher meistens ein Blue Screen – zum Einsatz. Gedreht wird also vor grünem Hintergrund. Damit Darsteller:innen wie bei Star Wars auf fernen Planeten oder TV-Moderator:innen in virtuellen Nachrichtenstudios zu sehen sind, kommt das sogenannte Chroma Keying zum Einsatz. Bei der Nachbearbeitung kann eine Farbe – meistens: grün – aus dem Bild entfernt werden, wodurch die Grafiker:innen die Darsteller:innen oder auch Gegenstände freistellen und in eine andere Hintergrund-Umgebung einfügen können. Grüne oder blaue Hintergründe werden genutzt, weil sich diese am meisten von den Hauttönen der Schauspieler:innen unterscheiden und es der Postproduktion leichter machen, die gewünschten Szenen zu bearbeiten. Dabei kommt es aber an den Rändern des freigestellten Motivs zu einem Detailverlust, der digital ergänzt werden muss. Technisch war das Chroma Keying schon vor dem Computerzeitalter möglich. Es wurde in den 1930er-Jahren entwickelt. Der erste Kinofilm, der dem Publikum eine Blue-Screen-Illusion bescherte, war Der Dieb von Bagdad im Jahr 1940. Hat der Green Screen bald ausgedient? Seit Jahrzehnten sind Green und Blue Screens Teil unzähliger Filmproduktionen, doch seit wenigen Jahren macht eine neue Technologie den einfarbigen Leinwänden den Platz streitig – und könnte sie sogar weitgehend ersetzen. Die Technologie heißt StageCraft und kam, wie schon angedeutet, bereits bei The Mandalorian zum Einsatz. Sie stammt von Industrial Light & Magic, einem Visual-Effects-Unternehmen von Lucasfilm, gegründet vom Star-Wars-Schöpfer George Lucas. Und im Grunde besteht StageCraft aus vielen LED-Leinwänden. Sehr vielen. 1.300 davon füllen eine sechs Meter hohe Kuppel namens The Volume mit einem Durchmesser von 23 Metern. Auf die Kuppel können die – am Computer generierten – Hintergründe von Filmszenen projiziert werden, in der Mitte ist Platz für die Darsteller:innen und die Requisiten. So können Produktionen wie The Mandalorian quasi in der echten Umgebung gedreht werden, obwohl sie sich nur in The Volume befinden. Gesteuert wird die ganze Anlage von der Brain Bar aus. Dort sind Techniker:innen zuständig für die Echtzeit-Steuerung der 3D-Modelle, die in der Kuppel gezeigt werden, für die Beleuchtung oder die Farbkorrekturen des Hintergrunds. Was auf den LED-Leinwänden zu sehen ist, sind keine statischen Renderings aus klassischen Grafikprogrammen, sondern im Grunde ein für die Filmproduktion erstelltes Videospiellevel aus der Unreal Engine von Epic Games . Auf der basieren auch Spiele wie Fortnite oder das Final Fantasy VII Remake . Neben der Erstellung von dreidimensionalen Szenerien, in deren Raum man sich frei bewegen kann, erleichtert die Game Engine auch eine realistische Beleuchtung der Hintergründe. Die Brain Bar kann die Lichtquelle für die Szene zu jedem Zeitpunkt verändern und die Engine passt Licht und Schatten dynamisch an. Wo echtes Licht ist, gibt’s auch echte Reflexionen Dass in der LED-Kuppel gedreht wird, hat viele Vorteile. Darsteller:innen können sich besser in die Szene hinein versetzen, weil sie vor den – zumindest optisch – richtigen Kulissen stehen. Die Kamerateams bekommen durch die dynamische Unreal Engine ganz neue Möglichkeiten. Vor allem sehen sie anders als beim Green Screen schon während der Dreharbeiten das ganze Bild, das sie aufnehmen. Und die Postproduktion hat weniger Arbeit, weil das Freistellen der Motive durch das Chroma Keying und das dazugehörige Wiederherstellen von verlorengegangenen Details an den Rändern zum Green Screen wegfällt. Ein kleiner, aber wichtiger Vorteil entsteht außerdem erst dadurch, dass die Darsteller:innen vor großen und vor allem leuchtenden Leinwänden spielen: die korrekte Lichtreflexion. Warum dieses Detail so gut mit StageCraft funktioniert, lässt sich am Beispiel von The Mandalorian zeigen. Der Hauptdarsteller der Serie trägt eine metallene Rüstung mit vielen reflektierenden Oberflächen. Bei einer Produktion vor dem Green Screen müssten die Lichtreflexionen in der Postproduktion einzeln hinzugefügt werden. Durch den Dreh vor den „echten“ Kulissen, also den leuchtenden LED-Leinwänden, reflektiert sich das Licht der Leinwände aber bereits beim Dreh auf der Rüstung physikalisch korrekt und muss nicht digital hinzugefügt werden. Auch wenn StageCraft bisher nur bei wenigen großen Film- und TV-Produktionen zum Einsatz kam, hat sich gezeigt, dass der Green Screen bald abgelöst werden kann. Erste Ableger der Anlage von Industrial Light & Magic entstehen bereits. Dazu gehört auch die Hyper Bowl in München, aufgebaut in einer Messehalle. Die LED-Wand, die ebenfalls mithilfe der Unreal Engine bespielt wird, hat hier eine Fläche von fast 500 Quadratmetern. In den vergangenen Monaten wurden dort bereits Werbefilme für Volkswagen, Porsche oder Mercedes gedreht, aber auch virtuelle Live-Events veranstaltet. Bis deutsche und europäische Filmproduktionen die Technik für sich entdecken, dürfte auch nicht mehr lange dauern. Teaserbild: Industrial Light & Magic Loading... Adriano Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! a854e77e-b849-4614-a6b2-4f784833837e 6992e369d535f14702085435
- KI mit Bewusstsein, die Welt als Simulation? Der Roman LEXI.exe stellt große Fragen | 1E9.community
Künstliche Intelligenz, Simulationshypothese, ethische Fragen um die Rechte von Maschinen – und das alles eingepackt in eine rasante,... 23. Dezember 2024 KI mit Bewusstsein, die Welt als Simulation? Der Roman LEXI.exe stellt große Fragen Künstliche Intelligenz, Simulationshypothese, ethische Fragen um die Rechte von Maschinen – und das alles eingepackt in eine rasante, unterhaltsame Handlung. Der Roman LEXI.exe von Swan Collective, einem fünfköpfigen, aber dennoch nur aus einer Person bestehenden Künstlerkollektiv, erscheint genau zur richtigen Zeit. Obwohl er eigentlich schon ein paar Jahre alt ist. Von Wolfgang Kerler Auf den ersten Seiten wirkt noch alles normal . Die Künstlerin Lexi fährt über die längste Brücke der Welt, im Radio läuft Eyes Without A Face . Da kommt ihr ein Fahrzeug entgegen. Viel zu schnell, Fernlicht an. „Was für ein Idiot!“ Im Gedanken formuliert sie einen Instagram-Post über die Szene. Wer nicht genau liest, geht vermutlich noch davon aus, dass LEXI.exe in unserer Realität spielt. Wären da nicht erste Hinweise. Lexi soll im „Husback Museum“ ausstellen. Nie gehört. Die Brücke verbindet „Skårland“ und „Vilsgrund“. Fiktive Orte. Trotzdem dauert es mehrere Kapitel, bis sich die Welt, die Swan Collective alias Felix Kraus für seinen Roman erschaffen hat, erschließt. Und spätestens dann beginnen die Zweifel an unserer Wirklichkeit… Was heißt schon Wirklichkeit? „Ein roter Faden meiner Arbeit ist das Wechselspiel zwischen Realität und Virtualität“, sagt Felix Kraus im Interview mit 1E9. „Die Realität zwischen den Fingern zerrinnen sehen. Wo bin ich? Was passiert hier eigentlich? Wache ich gleich auf? Da will ich hin.“ Schon beim Gespräch mit ihm rätselt man: Ist das jetzt der echte Felix? Oder eines seiner Alter Egos? Denn hinter seinem Künstlernamen Swan Collective verstecken sich fünf Versionen des Berliner Künstlers. Swan Collective alias Felix Kraus hat nach der Veröffentlichung von XR-Kunstwerken und Malerei jetzt seinen ersten Roman herausgebracht. Bild: Zebu Kluth Bereits im Studium in München wurde ihm dazu geraten, sich eine Schublade auszusuchen. Das steigere den künftigen Marktwert. Doch er wollte nicht nur Maler oder nur 3D-Künstler sein, also verwandelte er sich in ein Kollektiv. „Für mich ist das ein künstlerischer Life Hack, um mir sämtliche Freiheiten offenzuhalten und auf unsere schnelllebige Welt reagieren zu können.“ In seinen Arbeiten verbindet er Malerei mit Virtual Reality, Augmented Reality mit Games. Mit LEXI.exe hat er nun erstmals einen Roman veröffentlicht. Auch darin spielt er mit unserer Wahrnehmung der Wirklichkeit. Vor allem aber greift er die großen, kaum beantwortbaren Fragen auf, die sich angesichts der Fortschritte von Künstlicher Intelligenz und Robotern stellen. Ab wann sind Maschinen tatsächlich intelligent? Können sie ein Bewusstsein haben? Braucht es dafür einen biologischen Körper? Sind wir selbst nur eine riesige Simulation? Achtung, ab hier enthält der Artikel Spoiler! Die simulierte Hauptfigur und ihr intensives Leben Der Roman begleitet Lexi van Dijk, eine Performance-Künstlerin deren Arbeiten kaum als subtil durchgehen. Bedeutungsschwanger bewegt sie sich bei ihren Auftritten zwischen deformierten Puppen, Tierknochen, Draht und Kunstblut. In einem Schlüsselmoment performt sie nackt in der Luft, hängt an einem Seil, das an einer Museumsdecke befestigt ist. Doch etwas geht schief. Lexi und ein Social-Media-Influencer werden schwer verletzt. Lexi stürzt in eine Sinnkrise. Will und kann sie noch Künstlerin sein? Wird der Influencer ihr je verzeihen? Sie bricht alle Kontakte ab, zieht in einen verlassenen Hof, kämpft mit inneren Konflikten und Einsamkeit. Doch sie ist nicht allein. Der zweite Protagonist Sol verfolgt auf seinen Bildschirmen alles, was sie tut. Er verliebt sich in Lexi, ohne dass sie von seiner Gegenwart weiß. Wie auch? Lexi existiert nur als Teil einer gigantischen Computersimulation, entwickelt vom Unternehmen Intelligencia, Sols Arbeitgeber. Als Analyst für den Kunst- und Kultursektor der Simulation wurde er auf Lexi aufmerksam. Irgendwann setzen sich die Puzzleteile des Romans zusammen: Intelligencia hat per Künstlicher Intelligenz eine Simulation des Universums gestartet, die im Zeitraffer die Entwicklung der Realität , also von Sols Welt, nachverfolgt. Sie kommt dieser erstaunlich nahe, abgesehen davon, dass es in der echten Welt weder unterschiedliche Hautfarben noch Social Media gibt. Unsere Welt – die, in der du gerade diesen Artikel liest – ähnelt also eher der Simulation im Roman. Wer den Filmklasser Welt am Draht von Rainer Werner Fassbinder kennt, kann sich das Setting von LEXI.exe gut vorstellen. Zeitlich hängt die Simulation, in der Lexi lebt, Sols Gegenwart noch um rund 70 Jahre hinterher. Das soll sich schnell ändern, die Simulation soll beschleunigt werden. Denn zum Business Case kann das Programm erst werden, wenn die virtuelle Welt mit der Realität gleichgezogen hat. Dann kann Intelligencia damit gesellschaftlich relevante Analysen durchführen. Gegen Bezahlung versteht sich. Doch die Simulation ist fast zu gut. Für Sol lebt Lexi, obwohl er weiß, dass sie nur in der Cloud existiert. Zumal Lexi viel intensiver, körperlicher fühlt als er. Verletzungen, Verdauung, Sex – für Lexi gehört das zum Leben dazu. Sol dagegen fremdelt mit seinem eigenen Körper aus Fleisch und Blut. Für Lexi vernachlässigt er seine Mitmenschen. Mit jeder Seite nimmt die Vielschichtigkeit der Handlung zu – und sie nimmt an Fahrt auf. Sol versucht irgendwann, in Lexis Leben einzugreifen, sie zu warnen, zu retten. Für sie entstehen dadurch Glitches, also Fehler in der Simulation, die sie an ihrem Verstand zweifeln lassen. Auch Sols robotische Haushaltshilfe (und Sex-Dienstleistern), die Humanoide EL, spielt noch eine Rolle. Sie wäre gerne menschlicher und schwärmt für eine Roboter-Aktivistin. Sols Chefin Yul, die keinerlei Empathie für die virtuellen Menschen in ihrer Simulation entwickeln will, wird ebenfalls zu einer entscheidenden Figur. Ein Roman für die ChatGPT-Ära, der schon vorher geschrieben wurde LEXI.exe wirkt wie der perfekte Roman, um den KI-Hype seit ChatGPT zu kommentieren. Geschrieben hat ihn Felix Kraus allerdings schon voher, nämlich Ende 2020, Anfang 2021. Nur dauerte es danach, einen Verlag zu finden. „Es war interessant zu beobachten, dass manche Aspekte des Buches fast schon überholt wurden“, sagt der Autor. Im Roman kostet es Sol noch Programmieraufwand, um seinem humanoiden Roboter die Stimme von Lexi zu verleihen. „Heute reichen dafür ein paar Sekunden Aufnahme und [der KI-Stimmgenerator von] Eleven Labs.“ Dass die Handlung wegen der rasanten KI-Entwicklung weniger futuristisch wirkt, stört Felix Kraus aber nicht. „Im Prinzip wird dadurch umso mehr das Hier und Jetzt behandelt.“ LEXI.exe Der Roman LEXI.exe von Swan Collective ist 2024 im Berliner Verlag Shift Books erschienen, hat 324 Seiten und kostet 23 Euro. Zum Roman gibt’s außerdem eine kostenlos App zum Download, mit Mini-Games, Chatnachrichten der Humanoiden EL oder auch dem Avatar von Felix Kraus, der in Augmented Reality Auszüge aus dem Buch vorträgt. Wahrscheinlich wäre die Geschichte auch eine andere geworden, hätte er LEXI.exe nach ChatGPT geschrieben. Denn während Künstliche Intelligenz im Buch nicht als übermenschlich und bedrohlich erscheint – im Gegenteil, die simulierte Lexi und die Humanoide EL sind die eigentlichen Sympathieträgerinnen –, hatte Felix Kraus spätestens nach dem Erscheinen von GPT-4 von OpenAI eine „ darke Phase“. „Ich dachte: Shit, die Menschheit ist bald abgehängt. Ich habe echt wenig Hoffnung gesehen, dass das nicht katastrophal endet.“ Inzwischen sieht er die Entwicklung wieder gelassener, rechnet nicht mehr mit exponentiellen Fortschritten bei KI. „Es gibt schließlich kein Perpetuum Mobile. Man kann nicht mehr rauskriegen, als man reinsteckt – und man steckt fehlerhafte menschliche Daten rein. Ich versuche mir also gerade schönzureden, dass wir als Menschheit noch ein bisschen mitspielen dürfen.“ Zumal er durch die neuen KI-Modelle einen Moment erleben konnte, den Sol und das Team von Intelligencia im Roman durchlaufen. Er lud sein Manuskript, über 300 Seiten PDF, im KI-Chatbot Claude 3.5 hoch, um sich mit der KI darüber zu unterhalten. „Und das war für mich ein Gänsehautmoment, in dem ich dachte: Da passiert Verständnis. Da ist ein tiefgreifendes Verständnis dafür, was ich mir als Autor gedacht habe.“ Genau wie Yul, Sols Chefin, glaube er eigentlich nicht, dass die Künstliche Intelligenz ein echtes Bewusstsein hat. „Aber gleichzeitig spürt man die Zweifel: Was, wenn da doch ein Bewusstsein ist?“ Auf jeden Fall lasse sich KI schon jetzt nicht mehr als „stochastische Muster-Maschine“ abstempeln. „Für mich entsteht da eine Art von Intelligenz. Und es wird auf jeden Fall immer mehr Menschen geben, die sagen: Wir müssen aufpassen, wie wir mit diesen Systemen umgehen. Vielleicht ist es ja schon jetzt die absolute Folter für KIs, die ganze Zeit nur für uns da sein zu müssen?“ Mit seinem Roman will er Diskussionen über solche Fragen anstoßen. Das Gehirn als perfekte „Weltsimulationsmaschine“ Zu den Stärken des Romans gehört, dass die darin skizzierte Zukunft anders als viele Science-Fiction-Werke, die ähnliche Themen verhandeln, nicht dystopisch ausfällt. Gefährliche Roboter oder KIs, übermächtige Globalkonzerne, verwüstete Einöden – darauf verzichtet Felix Kraus. Auch in der Welt des Programmierers Sol bleiben Menschen mit ihren Stärken und Schwächen für den Lauf der Welt verantwortlich. Unsere Selbstgewissheit und die menschliche Hybris, anderen – „niederen“ – Formen von Intelligenz das Bewusstsein abzusprechen, soll LEXI.exe aber durchaus etwas erschüttern. „Wir als scheinbar reale Menschen haben das Gefühl, die Realität ist biologisch verankert. Virtuellen Systemen, die körperlos sind, sprechen wir eine Existenz dagegen ab“, sagt Felix Kraus. „Aber was ist, wenn wir doch nur Gehirne in einem Tank sind? Unsere Gehirne können schließlich alle menschlichen Sinneswahrnehmungen zu 100 Prozent simulieren – bis zum 100-stimmigen Chor in 8K. Das wissen wir aus luziden Träumen.“ Und die Möglichkeit, dass wir nur in einer Computersimulation existieren, die gebe es natürlich auch noch. Ganz sicher sein können wir uns also nicht… Wer mehr über die XR-Kunst von Swan Collective alias Felix Kraus erfahren will, muss dafur nur die neueste Folge unseres New Realities Podcasts mit dem XR HUB Bavaria anhören. Loading... Wolfgang Kerler Chefredakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! 6816714f-fc44-4da7-b3bf-3d92daef787f 6769275ed361a658c70a603b
- Die neue Mondkamera der NASA kommt von Nikon | 1E9.community
Für die geplante Mondlandung der NASA im Jahr 2026 soll eine neue Kamera entwickelt werden. Dazu arbeitet die amerikanische Weltraumagentur mit dem japanischen Hersteller Nikon zusammen. Basis wird ei... 6. März 2024 Die neue Mondkamera der NASA kommt von Nikon Für die geplante Mondlandung der NASA im Jahr 2026 soll eine neue Kamera entwickelt werden. Dazu arbeitet die amerikanische Weltraumagentur mit dem japanischen Hersteller Nikon zusammen. Basis wird eine professionelle Kamera sein, die schon jetzt im Handel erhältlich ist. Von Michael Förtsch Das Artemis-Programm der NASA kommt trotz zahlreicher Schwierigkeiten voran. Mit der 2019 gestarteten Initiative sollten die Amerikaner eigentlich schon in diesem Jahr wieder ihren Fuß auf den Mond setzen. Doch sowohl die Entwicklung der Mondrakete SLS und des Raumschiffs Orion als auch der neuen Raumanzüge haben sich verzögert. Nach derzeitigem Stand wird die erste bemannte Mondlandung seit 1972 wohl erst Ende 2026 stattfinden. Wie die NASA jetzt mitteilte, hat sie sich für diese Mission nun ein weiteres sehr wichtiges Gerät gesichert. Denn wenn wieder Menschen den Mond betreten, soll das natürlich in Bild und Video festgehalten werden. Deshalb hat die US-Raumfahrtbehörde einen Vertrag mit dem japanischen Kamerahersteller Nikon geschlossen . Die neue Mondkamera HULC – kurz für Handheld Universal Lunar Camera – für die Astronauten soll fortan gemeinsam entwickelt werden. Basis soll die 6.000 Euro teure Profikamera Z9 sein, die erst Ende 2021 vorgestellt wurde und unter anderem von Presse-, Sport-, Natur- und Modefotografen genutzt wird. Dabei handelt es sich um eine Kamera ohne Spiegelreflexsystem, ohne Verschluss und ohne optischen Sucher. Stattdessen ist die Z9 eine sogenannte spiegellose Kamera, bei der sowohl die Bildvorschau als auch die Bildaufnahme durch die Belichtung des Sensors erfolgt. Das Fehlen des Spiegelreflexmechanismus macht diese Art von Kamera leichter und weniger anfällig für mechanisches Versagen als ihre DSLR-Pendants. Für die Mondmission muss die Z9 angepasst und optimiert werden. Dazu kollaborieren NASA-Ingenieure vom Marshall Space Flight Center in Huntsville, Alabama, bereits seit einiger Zeit direkt mit der Entwicklungsabteilung von Nikon. Ziel ist es unter anderem, die Aufnahme von Bildern und Videos bei schlechten Lichtverhältnissen zu verbessern und die Kamera selbst widerstandsfähiger zu machen. Unter anderem soll das Innenleben der Kamera durch spezielle Abschirmungen besser vor kosmischer Strahlung und durch einen Wärmemantel vor Temperaturschwankungen und Mondstaub geschützt werden. Nur wenige Kameras sind zurückgekehrt Eine weitere Modifikation, die die Kamera erhalten soll, ist ein Handgriff. Mit den Handschuhen der Raumanzüge wäre es sonst schwierig, die Kamera zu bedienen. Der Griff soll über mehrere Knöpfe verfügen, mit denen verschiedene Einstellungen schnell gewählt und die Kamera ausgelöst werden kann. Auch mehrere Objektive der Nikkor-Reihe sollen für den Einsatz auf dem Mond überarbeitet werden. Erste Iterationen der Mondkamera HULC existieren bereits und werden von der NASA bereits Strahlungs-, Temperatur- und Vakuumtests unterzogen. Auch wurde ein Prototyp schon im Zuge von geologischen Forschungsmissionen im US-Bundesstaat Arizona und im spanischen Lanzarote getestet – und lässt erahnen, wie die Kamera am Ende aussehen könnte. Noch vor der Mondlandung soll die Kamera auch auf der ISS zum Einsatz kommen. Im Rahmen des Apollo-Programms wurden Kameras des schwedischen Herstellers Hasselblad eingesetzt. Bei der ersten Mondlandung von Apollo 11 war dies vor allem eine Hasselblad Data Camera, die mit einer speziellen Beschichtung versehen war, um den Temperaturschwankungen auf der Mondoberfläche standzuhalten. Für Aufnahmen aus dem Inneren der Landefähre wurde eine Hasselblad Electric Camera verwendet. Aufgrund ihrer Zuverlässigkeit wurden Hasselblad-Kameras auch bei späteren Missionen verwendet. Bis auf eine sind alle Hasselblads bis heute auf der Mondoberfläche verblieben. Die 1971 von Apollo-15-Astronaut James Irwin genutzte und die einzige zurückgekehrte Kamera wurde 2019 für 660.000 Euro an einen japanischen Sammler versteigert . Abseits dessen hatte Neil Armstrong die 16mm-DAC-Filmkamera aus dem Landemodul der ersten Mondlandung auf die Erde zurückgeschmuggelt, mit der das Aufsetzen auf dem Mond gefilmt wurde. Diese wurde erst 2012 von seiner Witwe in einem Schrank entdeckt und dem Smithsonian Museum vermacht. Titelbild: ESA Loading... Michael Förtsch Leitender Redakteur Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! 51003070-f7c5-47f7-9d56-4610de29346b 698dd6d8d558b030957ea813
- Deutschland als lernendes System: Plädoyer gegen den Dauerlockdown | 1E9.community
Zentralismus in der Pandemie ist Ausdruck einer Kompetenzillusion. Erfolgreicher wäre es, ganz Deutschland in ein lernendes System zu verwandeln, das aus konkurrierenden und kommunizierenden Untersyst... 24. Februar 2021 Deutschland als lernendes System: Plädoyer gegen den Dauerlockdown Zentralismus in der Pandemie ist Ausdruck einer Kompetenzillusion. Erfolgreicher wäre es, ganz Deutschland in ein lernendes System zu verwandeln, das aus konkurrierenden und kommunizierenden Untersystemen besteht, schreibt der Physiker und Philosoph Marco Wehr. Das werde nur mit Künstlicher Intelligenz zu schaffen sein. Ein Essay von Marco Wehr Ist der sich permanent verlängernde Lockdown Ausdruck einer souveränen Strategie oder eher Zeichen ängstlicher Ahnungslosigkeit? Vermutlich Letzteres. Unsere „Strategie“ erinnert an das einsilbige Mantra alter Hausärzte, die bei jedem Krankheitsbild, das sie nicht recht einzuordnen wussten, Bettruhe empfahlen. Nur kommt man mit einem so dürftigen Vademecum ernsten Leiden nicht bei. In vergleichbarer Weise wird uns die momentane Angststarre und das Perpetuieren des Immergleichen wenig helfen, das Problem der grassierenden Pandemie in den Griff zu bekommen. Natürlich kann man mit einem konsequenten Lockdown die „Pandemie besiegen“. Aber der Preis ist hoch. Nach dem Würgegriff liegen zumindest Teile der Wirtschaft in Scherben. Operation gelungen, Patient tot. Der Ansatz ist zu eindimensional. Er kommt maßgeblich dadurch zustande, dass sich Politik und Verwaltung mental eingeigelt haben und wenig Bereitschaft zeigen, zu lernen. Es gibt kein systematisches, von höchster Stelle geleitetes Erkenntnisinteresse, das die zentralen Probleme in den Fokus nimmt. Statt eine belebende Dynamik zu entwickeln, dominiert die Statik. Über 12 Monate sind seit Ausbruch der Epidemie vergangen. Trotzdem weiß man immer noch nicht genau, wo sich die Menschen wirklich anstecken! Welche Tätigkeiten außer Singen, Jodeln und Brüllen sind gefährlich und wo kann man Leine lassen, um die Wirtschaft nicht zu ruinieren? Entscheidungsträger ohne „Skin the Game“ Die Gründe für die intellektuelle Bewegungslosigkeit sind vielfältig. An erster Stelle steht ein gravierender Systemfehler: Die Entscheidungsträger, denen die Bürger ein Mandat gegeben haben, damit diese auch in schwierigen Zeiten in ihrem Sinne entscheiden, sind von den Auswirkungen der gegenwärtigen Krise nicht betroffen. Egal wie viele Selbstständige, Künstler, Theatermacher oder Veranstaltungstechniker in existenzielle Schwierigkeiten geraten, Politiker und Verwaltungsbeamte bekommen 100 Prozent ihres Gehalts überwiesen. Unter diesen kommoden Umständen gibt es keinen Handlungsdruck, was die eigenen Interessen angeht. Es gibt kein „Skin in the Game“. Das ist eine beunruhigende Situation, bei der die Alarmglocken schrillen müssen. Gemäß der Überzeugung des Statistikers Nassim Nicholas Taleb sollte man sich niemals von den Führungsqualitäten einer Elite abhängig machen, die nicht persönlich die Risiken ihrer Entscheidungen mitträgt. Um diesen systemimmanenten Fehler zu beseitigen, böte es sich an, Neuseeland zum Vorbild nehmen: „Wenn es jemals eine Zeit gegeben hat, die Lücke zwischen verschiedenen Gruppen zu schließen, dann jetzt.“ Dieses Zitat stammt aus dem Mund von Jacinda Ardern, Neuseelands Regierungschefin. Sie verzichtete in der Coronapandemie erstmal für sechs Monate auf 20 Prozent ihres Gehalts! Was spräche dagegen, von unseren Volksvertretern einen vergleichbaren Tribut zu verlangen? Nur dann entstünde eine glaubwürdige Form der Solidarität. „We are all sitting in one boat“, wie Günther Oettinger so schön kalauerte. Stattdessen kultivieren wir eine Zweiklassengesellschaft. Auf der einen Seite das Risikoprekariat, das von der Epidemie durchgeschüttelt wird, während Privilegierte die Krise nur merken, weil man seinen Kaffee auf der Straße im Stehen trinken muss. Deutschland ist kein monolithischer Block Unabhängig von dieser Ungerechtigkeit müssen unsere Behörden eine andere Dynamik entfalten. Jeder Betrieb lernt, bei Nachfrageschwankungen seine Produktion den aktuellen Gegebenheiten anzupassen. Bei Bedarf wird mehr gearbeitet oder auch weniger. Doch dieses Gesetz gilt nur für den freien Markt. In Deutschland gab es im Katastrophenfall wochenlang (!) zwischen Weihnachten und Neujahr keine validen Infektionszahlen. Die Büros waren verwaist. Dienst nach Vorschrift. Die Verantwortlichen saßen beim Festschmauß und begrüßten das neue Jahr. Krisenmanagement sieht anders aus. Und Besserung ist nicht in Sicht. Gerade im Moment stellen wir fest, dass es zu wenig Spritzen gibt, um die Vakzine zu verimpfen. Quizfrage: Wie lange wissen wir, dass Impfstoffe hergestellt werden, für die man Spritzen braucht, um sie zu verabreichen? Tatsächlich reimt sich das Verb „verwalten“ nur zufällig auf „gestalten“. Gestaltung aber täte Not. Wir sind schließlich mit einem Komplexitätsmonster konfrontiert, das nicht dadurch verschwindet, dass man die Bürotür hinter sich abschließt. Wollen wir die Krise überstehen, sind wir gezwungen die Komfortzone zu verlassen, um zu lernen. Doch wie soll das gehen? Es ist entscheidend, Deutschland nicht als monolithischen Block zu betrachten, der zentralistisch regiert wird. Wir brauchen autonome Untersysteme, die konkurrierend und kommunizierend miteinander in Beziehung treten. Wir besitzen in Deutschland 294 Landkreise und 107 kreisfreie Städte. In der Summe also etwa 400 Untersysteme. Diese müssen als Laboratorien aufgefasst werden, die sich mit verschiedenen Strategien an der Wirklichkeit versuchen und durch die verbreiteten Kennzahlen der 7-Tage-Inzidenz und/oder des R-Wertes ein selektierendes Feedback erhalten. Tatsächlich gibt es bereits positive Entwicklungen. Trotz der verbreiteten zentralistischen Tendenz beginnen einige Landkreise und Städte eigenständig und kreativ neue Wege zu beschreiten. Vorreiter der Unangepassten war die Stadt Jena, die als erste eine Maskenpflicht einführte, als die meisten „Spezialisten“ noch der Überzeugung waren, dass sie unnütz ist. An vorderster Front Weltärztepräsident Frank Ulrich Montgomery, der als ausgebildeter Radiologe nicht zwingend Experte für epidemiologische Fragestellungen ist. Im Augenblick kreiert Tübingen mit seinem Oberbürgermeister Boris Palmer und der Notärztin Lisa Federle innovative und erfolgreiche Teststrategien. Genauso machen es die Apotheker der Stadt Böblingen, die nicht warten wollen, bis die Verwaltungsbeamten in die Hufe kommen. Trotzdem gibt es auch in diesem Zusammenhang einen Systemfehler. Die Wendigen und Einfallsreichen profitieren nur in Maßen von ihrem Einfallsreichtum und ihrer Tatkraft. Der Lockdown gilt für sie mit der gleichen Härte wie in den Landkreisen, die leichtfertig Querdenker-Demonstrationen mit 10.000 Teilnehmern gestatteten und nun unter hohen Infektionsraten leiden. Wenn aber alle, egal was sie tun, über denselben Kamm geschoren werden, kann kein Wettbewerb der Ideen entstehen! Stattdessen wäre zu fordern, dass kreatives und erfolgreiches Handeln belohnt wird. Da, wo die Inzidenzen niedrig sind, wird also kontrolliert gelockert. Dort wo sie hoch sind, nicht. Sind die Infektionszahlen alarmierend, bleibt die Belohnung aus. Zeit für Datenwolken und Künstliche Intelligenz Damit das nicht zu einem unkalkulierbaren Vabanquespiel gerät, braucht es ein durchdachtes Informationsmanagement. Alle Schritte sind sorgfältig zu dokumentieren und zu kommunizieren. Diese Daten müssen permanent gesammelt und ausgewertet werden. Das geht nur mit intelligenter und potenter Datenverarbeitung! Dem Robert-Koch-Institut, der Referenzbehörde, käme in diesem Zusammenhang eine neue Aufgabe zu. Ihre Aufgabe wäre es, eine digitale Task-Force aufzubauen, die die Daten kategorisiert und zueinander in Beziehung setzt, um schlussendlich Korrelationen zu ermitteln. Diese würden es erlauben, über mögliche Ursachen eines sich verändernden Infektionsgeschehens zu spekulieren. Korrelationen in großen Datenwolken zu finden, ist die Paradedisziplinen moderner Big-Data-Algorithmen, die allerdings an das Problemfeld der Corona-Pandemie angepasst werden müssten. Tatsächlich kommt Künstliche Intelligenz in der Corona-Krise bereits in verschiedenen Zusammenhängen zum Einsatz. Allerdings nicht dort, wo sie helfen könnte, über Sinn oder Unsinn von Lockdown-Maßnahmen zu urteilen. Wo wird KI bisher eingesetzt? Die chinesische Firma Alibaba hat einen Deep-Learning-Algorithmus entwickelt, der in wenigen Sekunden anhand einer Computertomographie erkennen soll, ob die Lunge eines Patienten vom Coronavirus befallen ist oder nicht. In internationaler Zusammenarbeit prüfen amerikanische, europäische und chinesische Forscher, in welcher Weise bekannte Wirkstoffe und Antikörper auf das Coronavirus wirken. Dazu verwenden sie Summit und Sierra , die leistungsfähigsten Supercomputer der Welt. Sie erreichen gemeinsam über 300 Billiarden Rechenoperationen pro Sekunde. Doch das ist nicht das Ende der Fahnenstange. Das sogenannte Folding@home-Projekt der Stanford University stellt, was Rechenkraft angeht, alles in den Schatten. Um Wissenschaftler im Kampf gegen das Coronavirus zu unterstützen, kann jeder Nutzer Rechenleistung seines eigenen Computers zur Verfügung stellen (Volunteer-Computing). Schon im Mai 2020 hatten die weltweit vernetzten Computer mehr Leistung als alle 500 Supercomputer der Welt zusammen. Mit dieser geballten Power untersuchen die Forscher normalerweise wie sich Proteine in Abhängigkeit von ihren Aminosäuresequenzen falten – ein hochkomplexes Problem. Im Fall von Corona werden Schlüsselkomponenten des Virus geprüft, um Strategien zu entwerfen, mit denen sich die Verbreitung des Virus unterbinden lässt. Es gibt viele weitere Beispiele, aber leider eben keine konkrete Anwendung, in welcher in einer föderalen politischen Struktur konkurrierende Untersysteme betrachtet werden, um letztlich das Gesamtsystem zu optimieren. Die Planung des Unplanbaren In einem solchen Szenario müssten zu Beginn in den Untersystemen zwangsläufig mit einer gewissen Willkür behaftete Öffnungs- und Schließungsregeln erlassen werden. Diese würden in einem zweiten Schritt durch eine Feedbackschleife einem harten Selektionskriterium ausgesetzt. In diesem spiegelt sich die zeitversetzte, gewertete Entwicklung des Infektionsgeschehens wider, das entweder Anlass zur Hoffnung gibt oder nicht. Auf diese Weise wird ein evolutionärer Lernprozess in Gang gesetzt, der in kleinen Schritten dafür sorgt, dass sich die Gesamtsituation verbessert. Damit ist zu rechnen, da die 400 autonom agierenden Untersysteme nicht nur ein Feedback bekommen, was ihre Verordnungen angeht. Da das System transparent ist und die ausgewerteten Daten allen zur Verfügung stehen, gibt es die Möglichkeit sich zu orientieren und Handlungsoptionen zu optimieren. Das Ziel ergibt sich in diesem Kontext zwangsläufig: Die Behörden der Landkreise wollen vermeiden, sich durch unbedachte Verordnungen in einen starken Lockdown zu manövrieren, während in den Nachbarkreisen, die es besser machen, Geschäfte und Restaurants wieder offen sind. Das würde bei den Wählern dieser Kreise zu großem Unmut führen. Dadurch entsteht ein positiver Handlungsdruck auf die Entscheider. Unterm Strich geht es darum, einen Plan für eine im Kern unplanbare Gesamtsituation zu entwerfen. Die Planung des Unplanbaren – das klingt wie ein Widerspruch in sich. Doch in der evolutionären Entwicklung sind optimierende Trial-and-Error-Verfahren mit regulierenden Feedback-Schleifen gang und gäbe. Sie bilden geradezu den Kern der Evolutionstheorie. In einem kulturellen Kontext darf es aber nicht um Leben und Tod gehen. Negative Entwicklungen müssen frühzeitig gedämpft, positive unterstützt werden. Dazu müssen die relevanten Informationen mit großer Sorgfalt gesammelt werden. Öffnet zum Beispiel Landkreis A die Schulen, dann ist festzuhalten, wie viele Kinder in einem Raum sitzen, wie oft gelüftet wird, ob sie Masken tragen, wie viele Stunden sie gemeinsam in der Klasse verbringen, wie viele von ihnen mit öffentlichen Verkehrsmitteln zur Schule kommen. Und so weiter. Eine solche feinmaschige Datenerhebung muss für alle Bereiche geleistet werden. Nur vor diesem Hintergrund würden die ermittelten Korrelationen einen Erkenntniswert besitzen und letztlich zu einem Lernprozess führen, der der apathischen Starre, in der wir uns befinden, vorzuziehen wäre. Ob dieses komplexe Szenario in einem Land, in dem Gesundheitsämter Daten noch per Fax verschicken, umzusetzen ist, bleibt abzuwarten. Aber jeder lange Weg beginnt mit einem ersten Schritt. Marco Wehr ist Physiker und promovierter Philosoph. Als vielfach ausgezeichneter Autor und Redner beschäftigt er sich mit Fragen der Vorhersehbarkeit, der Rolle des Körpers für das Denken und der Beziehung von Gehirn und Computer. Marco Wehr ist Gründer und Leiter des Philosophischen Labors in Tübingen . Titelbild: Getty Images Loading... marcowehr Rakete Fire Rakete 554 Cooler Artikel! Job, der Bot Das dürfen leider nur 1E9-Mitglieder. Anmelden Registrieren Werde 1E9-Mitglied, um diesen Artikel weiterzulesen! 1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen. Job, der Bot Mitglied werden! Anmelden Job, der Bot Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren. Gib Feedback! Mitglied werden! Nein Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen? Ja Job, der Bot Das freut mich zu hören! Darf ich fragen warum? Abschicken Leider gab es einen Fehler. Bitte probiere es später noch einmal! Zur Startseite comments debug Kommentare Anmelden Kommentar verfassen Kommentar verfassen Deine Meinung teilen Jetzt den ersten Kommentar verfassen. Weiter bei 1E9... Überschrift 3 Cooler Artikel! Überschrift 3 Button Artikel Überschrift 3 Button Cooler Artikel! Überschrift 3 Button Cooler Artikel! 0ef04574-9df2-4709-85b6-d16e0c122b57 6992e7557ecf4e1c5f039b12








