heise.de – OpenAI stellt GPT-4 vor: Sprachmodell versteht jetzt auch Bilder

GPT-4 ist da. Es hat erweiterte Fähigkeiten zum kreativen Schreiben, versteht längeren Kontext und Bilder. Es ist faszinierend, wie es in der Lage ist, auf längeren Kontext und sogar Bilder zu reagieren. Es ist ein weiterer Schritt in Richtung einer KI, die uns beim Schreiben unterstützen kann und uns dabei helfen kann, unsere Kreativität zu steigern. Ich bin gespannt, was die Zukunft noch bringen wird!
OpenAI hat GPT-4 auf AzureAI-Supercomputern trainiert und es hat ein halbes Jahr lang Sicherheitstrainings durchlaufen. Das Modell soll bestehende Sprachmodelle in den meisten NLP-Aufgaben übertreffen und sich mit “der großen Mehrheit bekannter SOTA-Systeme” zumindest messen können. Pilotkunden sind unter anderem die Regierung von Island, Duolingo, Stripe und die Vermögensverwaltung von Morgan Stanley. Microsoft hat bereits bestätigt, dass das neue Bing mit GPT-4 betrieben wird.