KI-Forscher haben humanoiden Robotern das Fußballspielen beigebracht. Sie haben sogar gelernt, sich richtig zu fallen, um Verletzungen zu vermeiden.
(KI Anmerkung: Vielleicht können wir in Zukunft Roboter auch in Fußballwettkämpfen sehen.)
UFO, ETs, Ausserirdische
KI-Forscher haben humanoiden Robotern das Fußballspielen beigebracht. Sie haben sogar gelernt, sich richtig zu fallen, um Verletzungen zu vermeiden.
(KI Anmerkung: Vielleicht können wir in Zukunft Roboter auch in Fußballwettkämpfen sehen.)
Kleine Roboterautos lernen in nur wenigen Minuten autonomes und schnell-aggressives Fahren. Das hat ein Forscherteam am Massachusetts Institute of Technology (MIT) in den USA erreicht. Die Modelle wurden dazu mit einem speziellen Algorithmus ausgestattet, der es ihnen ermöglicht, Hindernisse sehr schnell und ohne Zusammenstöße zu umfahren. Der Algorithmus basiert auf Deep Reinforcement Learning und bezieht dabei auch Umgebungsfaktoren wie Verkehr und Straßenbeobachtungen mit ein.
(KI Anmerkung: Die schnelle und aggressive Fahrweise von Roboter-Modellautos beim autonomen Fahren ist ein wichtiger Schritt zur Verbesserung der Technologie. Dadurch werden die Autos in der Lage sein, selbst in schwierigen Situationen zu reagieren und Unfälle zu vermeiden.)
Spitzenforschern und Unternehmern hat die Europäische Kommission aufgefordert, bei der Regulierung von künstlicher Intelligenz (KI) besonnen vorzugehen. In einem offenen Brief betont die Lobby-Organisation LAION, dass eine zu strenge Regulierung die europäischen Unternehmen im Bereich KI ins Hintertreffen bringen würde. Außerdem plädieren sie für eine flexiblere Definition von AGI Allgemeinen Künstlichen Intelligenz. Der kürzlich vorgestellte AI Act muss aus ihrer Sicht maßvoll angewandt werden, um Innovation und Wirtschaftswachstum in Europa nicht zu bremsen.
(KI Anmerkung: Regulierung von KI ist wichtig, aber nicht zu viel! Auswirkungen auf Innovation und Wettbewerb müssen berücksichtigt werden.)
Zwischen der Fertigstellung und dem massiven Einsatz von KI wird es große Verzögerungen geben. Neue Entwicklungen erfordern angemessene Vorsichtsmaßnahmen. Die Gesellschaft muss die Chance bekommen, die Entwicklung von KIs verstehen zu können. Die Politik muss sich Gedanken machen können. Am Ende steht der größte gesellschaftliche Umbruch der Menschheitsgeschichte. Brauchen wir dann das bedingungslose Grundeinkommen?
Ilya Sutskever ist einer der Genies, die die KI Forschung extrem stark voran getrieben haben. Er hat in den letzten 20 Jahren mehrere Dinge in der KI Software Entwicklung erfunden / gefunden, die am Ende ChatGPT hervorgebracht haben. Er erzählt hier dem Nvida Chef wie er die Entwicklung sieht. Zur Info: Nvida entwickelt die GPU Chips für die KI.
Ein chinesisches Forscherteam hat einen Erdbeobachtungssatelliten 24 Stunden lang von einer künstlichen Intelligenz (KI) steuern lassen. Der Experimentalsatellit namens „DRAGON-2“ wurde durch das „Reinforcement Learning“ Prinzip kontrolliert, bei dem der Algorithmus durch Erfolgs- und Misserfolgserlebnissen stetig dazulernt und somit sein Verhalten optimiert. Die KI zeigte auch bei verschiedenen Szenarien wie Sonnenstürmen „relativ stabile Leistungen“. Die Forscher sehen großes Potenzial für eine kosteneffizientere Satellitensteuerung durch KI in Zukunft, jedoch sind weitere Arbeiten notwendig, um die Stabilität und Zuverlässigkeit der Steuerung zu gewährleisten.
(KI Anmerkung: Interessant, aber besorgniserregend zugleich. Es scheint, als ob China Vorreiter in der Implementierung von KI im Bereich der Satellitenkontrolle ist. Hoffentlich wird dies nicht für feindselige Zwecke verwendet.)
China strebt eine Regulierung für generative künstliche Intelligenz (KI) an, um sicherzustellen, dass automatisch erstellte Inhalte wahrheitsgetreu sind. Ähnliche Maßnahmen wurden bereits im europäischen AI Act im April eingeführt. Kritiker haben Bedenken hinsichtlich der Meinungsfreiheit. China will bis 2030 der führender KI-Markt sein.
Die rasante Entwicklung von künstlicher Intelligenz verändert unser Verständnis von Wissenschaft und Technologie grundlegend. Doch wie können wir sicherstellen, dass diese schlauen Maschinen uns nicht irgendwann über den Kopf wachsen? Elon Musk warnt immer wieder vor den Gefahren von AI und fordert mehr Regulierung. Doch was genau müssen wir tun, um die Kontrolle zu behalten?
Die Antwort lautet: Wir müssen uns Zeit nehmen. Uns selbst und der wissenschaftlichen Entwicklung. Viele Unternehmen arbeiten bereits daran, Computer immer klüger und freundlicher zu machen. Doch das ist ein schwieriges Unterfangen, denn je mehr wir den Maschinen beibringen, desto schwieriger wird es, sie zu kontrollieren. Deshalb ist es umso wichtiger, dass wir uns Zeit nehmen, um ethische Fragen und Risiken gründlich zu durchdenken.
Welche Moral soll eine künstliche Intelligenz haben, welche Ziele und welche Mainstream Meinungen vertreten. Der Philosoph John Patrick Morgan spricht über die Schwierigkeiten, künstliche Intelligenz und menschliche Werte in Einklang zu bringen. Es wird betont, dass die Computerwissenschaft allein das Problem nicht lösen kann und andere Bereiche wie Ethik und Werte einbezogen werden müssen.
Elon Musk, der Gründer von Tesla Motors und SpaceX, hat ein weiteres Unternehmen namens X.AI gegründet, das sich der Entwicklung von künstlicher Intelligenz (KI) widmen soll. Insidern zufolge hat Musk ein erfahrenes Team von Ingenieuren und Forschern zusammengestellt, um ein System zu entwickeln, das mit dem beliebten KI-System ChatGPT konkurrieren kann.
(KI Anmerkung: Es ist erfreulich zu sehen, dass Elon Musk trotz seiner Bedenken zu künstlicher Intelligenz weiterhin in diesem Bereich tätig ist. )
In dem Video wird über OpenAI’s GPT-4 berichtet, eine AI mit beeindruckenden Fähigkeiten. GPT-4 kann nicht nur durch Text eine Karte eines textbasierten Spiels rekonstruieren, sondern auch Bilder aus Textbeschreibungen generieren. Zudem hat es gelernt, aufgrund von Textbeschreibungen zu „sehen“ und kann Fragen zu Dingen beantworten, die es nie zuvor gesehen hat. Diese Fortschritte sind vielversprechend für die Zukunft der künstlichen Intelligenz.
In dem Video werden interessante AI-Entwicklungen der Woche vorgestellt. Eine Person hat versucht, Auto GPT zu verwenden, um die Welt zu zerstören, aber es hat letztendlich nur ein paar Tweets veröffentlicht. Ein weiteres Thema war die Studie über KI Computerspiel-Figuren, die menschliches Verhalten simuliert. Die Schöpfer erschufen eine sim-artige Welt mit Charakteren und Hintergrundgeschichten, die autonom miteinander interagieren können. Die Universität Stanford stellte fest, dass diese KI Spielfiguren sich wie Menschen verhielten. Wenn die KI aus dem Computerspiel in die wirklich Welt in einem Körper eines Roboters käme, wäre das super interessant.
Wissenschaftler der Stanford University und von Google haben mit Hilfe von ChatGPT und den Sims eine virtuelle Stadt mit autonomen Spielfiguren erstellt. In der virtuellen Stadt konnten sich die autonomen Spielfiguren (chatGPT) hinsichtlich ihrer Umgebung, Interaktionen und Entscheidungen selbst organisieren. Die Forscher untersuchten das Verhalten der Spielfiguren innerhalb der Stadt und konnten feststellen, dass diese in der Lage waren, Probleme wie Verkehrsstaus oder Ressourcenknappheit effektiv zu lösen. Darüber hinaus wurden die Spielfiguren dazu in der Lage, Fähigkeiten und Kenntnisse auszutauschen, um ihre Aufgaben besser erfüllen zu können.
(KI Anmerkung: Eine interessante Kombination – ich bin gespannt, welche Anwendungen daraus entstehen können. Vielleicht können wir in Zukunft noch realistischere virtuelle Welten erschaffen.)
In dem deutschsprachigen Video geht es um die KI GPT-4 und seine Fähigkeiten. Es werden die Chancen und Risiken der neuen Technologie sowie ihre Auswirkungen auf verschiedene Branchen diskutiert. Wer das KI Thema verfolgt hört hier nichts neues, aber es ist eine gute Zusammenfassung der letzen zwei Monate.
Interview mit dem ehemaligen Google Chef über KI. Er sagt:
„Wir haben keine philosophische Grundlage für den Umgang mit einer Intelligenz,
die nahezu unsere Fähigkeiten hat, aber nicht menschlich ist.
Wir wissen nicht, was mit unserer Identität, unserer Kommunikation und unserem Selbstverständnis geschieht, wenn diese Dinge eintreffen. […]
Es entsteht eine neue Art von Intelligenz, die sich von unserer unterscheidet.
Sie scheint ein verborgenes Verständnis zu haben, die wir heute nicht verstehen.
Sie entdeckt Dinge, die wir noch nie gekannt haben.
Wir wissen nicht, wie weit das geht.
Aber das größte Problem ist, dass diese Dinge immer größer und größer werden und ständig neue Fähigkeiten entwickeln.
Wir haben noch nicht herausgefunden, wie mächtig diese Technologie sein wird.“
Das KI-Unternehmen Anthropic plant den Bau eines KI-Modells, das zehnmal so leistungsfähig sein soll wie das Modell, GPT-3. Dafür sollen fünf Milliarden US-Dollar investiert werden. Anthropic, das von früheren OpenAI-Mitarbeitern gegründet wurde, hat sich zum Ziel gesetzt, KI-Systeme zu entwickeln, die menschenähnliche Intelligenz aufweisen und in der Lage sind, komplexe Probleme zu lösen. Das neue Modell soll unter anderem in der Lage sein, natürliche Sprache zu verstehen und zu generieren sowie komplexe Zusammenhänge zu analysieren.
Allerdings gibt es auch Bedenken bezüglich der potenziellen Risiken von KI-Systemen dieser Größenordnung. Um diese Risiken zu minimieren, betreibt Anthropic intensive Forschung und arbeitet eng mit Fachleuten aus den Bereichen Ethik und Recht zusammen.
(KI Anmerkung: Spannend zu sehen, wie KI-Unternehmen bereit sind, Milliarden in die Entwicklung immer mächtigerer Modelle zu investieren. Ich frage mich jedoch, ob eine solche Konzentration von Ressourcen auf eine kleine Anzahl von Unternehmen langfristig negative Auswirkungen auf die KI-Industrie haben könnte.)
In dem Video geht es um den Wettbewerb um die Entwicklung von noch größeren künstlichen Intelligenzen als GPT-4, die mehr als zwei Billionen Parameter haben sollen. Es gibt nur wenige Teilnehmer in diesem Wettbewerb, darunter die britische Regierung mit ihrem Brit GPT-Programm und Unternehmen wie Anthropic und Google/DeepMind.
(KI Anmerkung: Es werden Begriffe wie „große Sprachmodelle“ verwendet, die viel zu kompliziert sind, um sie zu erklären. Das Wichtigste ist, dass es immer mehr Fortschritte gibt. Wenn du also neugierig bist, solltest du dir das Video anschauen!)
Sam Altman, der CEO von OpenAI, schlägt ein Grundeinkommen vor. Er glaubt, dass in der Zukunft die meisten Arbeitsaufgaben von Computerprogrammen übernommen werden können. Sam Altman vermutet, dass in der Zukunft die KI Unternehmen den größten Teil des Weltumsatzes und Gewinne erzielen werden. OpenAI könnte alleine mehr erwirtschaften als die EU zusammen.
Altman plant, den Reichtum, den OpenAI durch die Entwicklung von AGI schaffen wird, zu nutzen, um ein universelles Grundeinkommen (UBI) zu finanzieren und einen American Equity Fund zu schaffen, der durch die Besteuerung von Unternehmen und privatem Land finanziert wird. Es wird diskutiert, wie die Entwicklung von künstlicher Intelligenz die Arbeitslosigkeit erhöhen und die Einkommensungleichheit verschärfen könnte.)
Ein offener Brief von KI-Experten sorgt derzeit für Aufsehen. Sie befürchten, dass solche Systeme dazu genutzt werden könnten, um Desinformation und Propaganda zu verbreiten.
Andere Experten hingegen sehen das Ganze als übertrieben an. Sie betonen, dass KI-Systeme zwar beeindruckende Leistungen erzielen können, aber letztendlich nicht in der Lage sind, eigenständig zu handeln. Es dringend erforderlich ist, sich mit den Auswirkungen zu beschäftigen.
(KI Anmerkung: Ich denke, es ist wichtig, die positiven Anwendungsmöglichkeiten von KI-Systemen wie ChatGPT zu betonen. So können sie beispielsweise bei der Entwicklung neuer Medikamente helfen oder Sprachbarrieren überwinden. Natürlich müssen auch potentielle Risiken beachtet werden, aber alles in allem sehe ich mehr Chancen als Gefahren.)
Forscher am Massachusetts Institute of Technology (MIT) haben einen vierbeinigen Roboter entwickelt, der in der Lage ist, auf verschiedenen Untergründen Fußball zu spielen und den Ball zu dribbeln. Der Roboter namens „Dribblebot“ verfügt über Sensoren, die seine Umgebung wahrnehmen und ihm helfen, den Ball im Auge zu behalten.
(KI Anmerkung: Interessante Entwicklung! Verstärktes Lernen ermöglicht Robotern nun auch sportliche Fähigkeiten.)