Visual Intelligence auf dem iPhone 15 Pro: So gehts

Zwei Möglichkeiten ab iOS 18.4

Mit der iPhone-16-Serie könnt ihr ja eure Kamera, oder besser gesagt, Visual Intelligence nutzen, um Objekte oder Orte per KI analysieren zulassen und mehr über sie zu erfahren. Visual Intelligence kann außerdem Texte erkennen, vorlesen und übersetzen, ChatGPT fragen, auf Google suchen und vieles weitere mehr. Mit dem Update auf iOS 18.4 können auch iPhone-15-Pro-Besitzer auf die neue Funktion zugreifen. Hier lest ihr, wie das geht.

Zunächst konnten nur iPhones mit Kamerasteuerung Visual Intelligence nutzen, da die Funktion nur über diesen Knopf aktiviert werden konnte. Dank eines Updates, das mit iOS 18.4 verfügbar gemacht wurde, ist dies nun aber auch für das iPhone 15 Pro möglich. Das iPhone 16e hat diese Funktion übrigens trotz fehlender Kamerasteuerung standardmäßig an Bord.


Um Visual Intelligence auf dem iPhone 15 Pro zu nutzen, gibt es zwei Möglichkeiten.

Option 1 – Aktionstaste:

  1. Ladet zunächst das Update auf iOS 18.4 herunter und installiert es
  2. Öffnet dann die Einstellung
  3. Tippt auf „Aktionstaste“
  4. Scrollt zu „Visual Intelligence“ und wählt es aus
  5. Drückt ihr nun die Aktionstaste und haltet sie gedrückt, wird Visual Intelligence aktiviert

Option 2: Kontrollzentrum

  1. Ladet auch hierfür die neueste iOS-Version herunter und installiert sie
  2. Öffnet dann das Kontrollzentrum (obere rechte Ecke des Displays berühren und nach unten wischen)
  3. Haltet dann einen beliebigen Punkt auf dem Screen gedruckt, bis das Menü editierbar wird
  4. Wählt „Steuerelement hinzufügen“
  5. Sucht nach Visual Intelligence und fügt den Button zum Kontrollzentrum hinzu

Wenn ihr Visual Intelligence verwendet, werden euch drei Buttons angeboten: einer zum Aufnehmen eines Fotos, ein „Fragen“-Button, der einen ChatGPT-Gesuch triggert und ein „Suchen“-Button, der eine Google-Bilder-Suche startet. Ihr könnt die beiden letzteren Aktionen auch triggern, ohne dass ihr ein Foto aufnehmt. Der Live-Modus genügt. Auf bisher aufgenommene Bilder lässt sich Visual Intelligence in dieser Form bisher nicht anwenden.

Hinweis: Dieser Artikel enthält Affiliate-Links. Bei Käufen über diese Links erhalten wir eine Provision, mit dem wir diesen Blog finanzieren. Der Kaufpreis bleibt für euch unverändert.

Anzeige

Kommentare 6 Antworten

  1. Ich finde es nach wie vor verwerflich und auch frech, dieses ganze AI Gedöns nur auf die aktuellsten Telefone zu bringen. Es wird alles geregelt und vorgeschrieben seitens EU etc. Aber hier gliedern die Hersteller ältere Telefone aus, um ihre neuen zu verkaufen.
    Vielleicht sollten sie eventuell mal an den Telefonen arbeiten, sodass man gern bereit ist ein neues zu kaufen.
    Früher hatte ich bei jedem iPhone das Gefühl…das muss ich haben. Es waren immer mal Neuerungen dabei welche ich gefühlt gebraucht habe.
    Und jetzt? Wird einem ein neues Gerät aufgezwungen mittels Softwarerestriktierungen.

    1. Dir ist schon ungefähr klar, welche Rechenleistung für ‚AI’ benötigt wird und dass die ein älteres Gerät vermutlich schlicht nicht hat. Und falls das doch (unter Volllast) irgendwie möglich sein sollte, das deinen alten Akku leer saugt wie Nix. Oder?😉

      1. @rameika: Wahrscheinlich ist @talentfrei nicht klar, dass Apple Intelligence lokal ausgeführt wird, im Gegensatz zu ChatGPT und co.

    2. Wenn Du dich richtig informiert hättest, wüsstest Du, das AI Minimum 8 GB Arbeitsspeicher erforderlich ist.
      Das geht halt erst ab 15 Pro los 💁🏼

  2. Warum finde ich das Feature nicht auf meinem iPad Air (11 Zoll, M2)? Ich hatte bei den ganzen Ankündigungen immer verstanden, dass dieses neue iPad auch alle Apple Intelligence Features erhalten würde. Hat das iPhone irgendwelche Hardwarefeatures, die auf dem iPad hierfür fehlen?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert