Per SwiftUI: OpenAIs GPT-4-Technologie kann auch iPhone-Apps erstellen

Ein Entwickler zeigt, wie es geht

Das Thema Künstliche Intelligenz hat gerade in den letzten Monaten sehr an Fahrt aufgenommen. Der Chatbot ChatGPT von OpenAI wurde zu einem beliebten Tool, um Texte, Bilder und sogar Code zu generieren. Mit der Ankündigung des neuen GPT-4 von OpenAI wird es nun noch mehr Möglichkeiten geben: Die Technologie kann sogar iPhone-Apps mittels SwiftUI kreieren.

Wer bisher noch nichts von GPT bzw. „Generative Pre-Training Transformer“ gehört hat: Dies ist die Technologie, die sich hinter dem beliebten Chatbot ChatGPT versteckt. Die neue Version, bezeichnet als GPT-4, soll laut OpenAI einen „massiven Sprung im Bereich der Verarbeitung natürlicher Sprache“ bedeuten. Laut des Entwicklerteams soll GPT-4 menschenähnlichere Texte besser verstehen und erzeugen, sowie schwierigere Probleme mit höherer Genauigkeit lösen.


Mit GPT-4 sollen sich aber auch ganz neue Möglichkeiten bieten: Bei Twitter berichtet der Entwickler Morten Just, wie er mit Hilfe von GPT-4 eine iPhone-App erstellt hat. Diese empfiehlt dem User täglich fünf neue Filme. Es heißt, lediglich die KI darum zu bitten, die SwiftUI-Programmiersprache von Apple zu verwenden, sowie anzugeben, dass die App Trailer und die Streaming-Plattformen anzeigen soll, auf denen die Filme verfügbar sind.

Im Video von Morten Just wird ersichtlich, dass GPT-4 den gesamten Code für eine iPhone-App zur Verfügung gestellt hat. Das Endergebnis kann sich sehen lassen und liefert genau die Anforderungen, die der Entwickler vorgegeben hat. Laut Morten Just wies die erste Version der App noch einige Fehler auf, allerdings habe GPT-4 diese behoben und sich anschließend „entschuldigt“. Für alle Interessierten hat Morten Just den Quellcode der App bei GitHub veröffentlicht.

Ein Beispiel wie dieses zeigt deutlich auf, welchen Einfluss Künstliche Intelligenz in Zukunft auf unser Leben haben kann – und wird. Auch Apple arbeitet bereits daran, es auch Personen ohne große Programmierkenntnisse zu ermöglichen, Apps zu erstellen. So sollen Nutzer und Nutzerinnen in Zukunft Anwendungen per Siri kreieren können. Über die zahlreichen sich ergebenden Möglichkeiten, eine KI in Apples Tool Swift Playgrounds oder in Xcode zu integrieren, darf zudem spekuliert werden: Die App-Erstellung und -Pflege dürfte sich deutlich vereinfachen.

Hinweis: Dieser Artikel enthält Affiliate-Links. Bei Käufen über diese Links erhalten wir eine Provision, mit dem wir diesen Blog finanzieren. Der Kaufpreis bleibt für euch unverändert.

Anzeige

Kommentare 4 Antworten

  1. Wenn die Basis stimmt, ist die Verarbeitung neuer Datenbanken in exponentieller Geschwindigkeit möglich.
    Das Sprachmodell ist ja nicht nur darauf begrenzt menschliche Kommunikation nachzubilden – es kann sämtliche Sprachen erlernen (dazu gehört auch Höhere Mathematik).

    Wäre interessant, ob es auch viel kompliziertere Sprachen lernen kann (die wir selbst noch nicht ganz verstehen). ZB die Sprache der Proteine und letztendlich der DNA.

      1. Liegt weniger am Modell selbst und mehr an den Datenbanken, mit denen es bisher arbeiten musste.
        Es kann durchaus zwischen Logikblöcken und Wahrscheinlichkeiten unterscheiden. Es wurde lediglich noch nicht in HöMa (außerhalb von zugänglichen Lehrbüchern in natürlicher Sprache) trainiert.

        Das ist das selbe Problem bei KIs der Bildverarbeitung. Sie machen aktuell bei 3D Objekten banale Fehler, weil 2D Formate die einzigen waren, was man sie gefüttert hat.
        Die Modelle können mit entsprechenden Datenbanken diese Fehler selbst ausmerzen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert