Mit iOS 18.2 hat Apple in den Ländern, in denen der eigene KI-Dienst Apple Intelligence bereits verfügbar ist, weitere Anpassungen vorgenommen. So gibt es nun auch Zusammenfassungen von Nachrichten-Schlagzeilen, um schnell und einfach auf dem neuesten Stand zu bleiben. Diese Funktion scheint jedoch offensichtlich nicht wie gewünscht zu funktionieren, so dass Apple sich derzeit Kritik von unterschiedlichsten Stellen ausgesetzt sieht.
So fordert unter anderem Reporter Ohne Grenzen (RSF) Apple auf, die Benachrichtigungsfunktion für Zusammenfassungen in Apple Intelligence zu deaktivieren. Vorausgegangen war ein Fehler des Features, das eine irreführende Schlagzeile erzeugte: Diese suggerierte, der Mordverdächtige Luigi Mangione habe sich erschossen. Als Quelle dieser Information gab die KI fälschlicherweise BBC News an.
Der 26-jährige Luigi Mangione wurde am 4. Dezember in New York festgenommen, da er als Tatverdächtiger für den Mord an Brian Thompson, dem CEO eines großen amerikanischen Krankenkassenkonzerns, gilt. Mangione befindet sich nach wie vor im Hochsicherheitstrakt der Huntingdon State Correctional Institution in Huntingdon County in Pennsylvania in Haft. Da der Fall weltweit hohe Wellen schlägt, hat dementsprechend auch die britische BBC (British Broadcasting Cooperation) darüber berichtet.
Auch die BBC hat mittlerweile eine Beschwerde bei Apple eingereicht, wie MacRumors berichtet. Die Organisation Reporter Ohne Grenzen macht in einem Artikel auf ihrer eigenen Website klar, dass Künstliche Intelligenz gegenwärtig nicht dazu in der Lage sei, zuverlässig Informationen für die Öffentlichkeit zu liefern. Vincent Berthier von RSF erklärt dazu:
„KIs sind Wahrscheinlichkeitsmaschinen, und Fakten können nicht durch Würfeln entschieden werden. RSF fordert Apple auf, verantwortungsvoll zu handeln und diese Funktion zu entfernen. Die automatische Produktion von Falschinformationen, die einem Medienunternehmen zugeschrieben werden, ist ein Schlag für die Glaubwürdigkeit des Unternehmens und eine Gefahr für das Recht der Öffentlichkeit auf verlässliche Informationen zu aktuellen Themen. Das europäische KI-Gesetz – obwohl es die fortschrittlichste Gesetzgebung der Welt in diesem Bereich ist – stufte informationsgenerierende KI nicht als Hochrisikosysteme ein und hinterließ damit eine kritische Rechtslücke. Diese Lücke muss umgehend geschlossen werden.“
Dieser Vorfall ist nicht der erste, der die KI-generierten Zusammenfassungen von Schlagzeilen bei Apple Intelligence betreffen. Auch die New York Times berichtete von ähnlichen Problemen, als ein Artikel über den israelischen Premierminister Benjamin Netanjahu von Apple Intelligence falsch zusammengefasst wurde. In der Zusammenfassung war davon die Rede, Netanjahu sei verhaftet worden, obwohl der Artikel von einem Haftbefehl des Internationalen Strafgerichtshofs sprach.
Uns in Deutschland betrifft das aktuelle Problem von Apple nicht direkt, da Apple Intelligence hierzulande bislang noch nicht verfügbar ist. Wie Apple allerdings mittlerweile angekündigt hat, soll der KI-Dienst im April des nächsten Jahres auch in Deutschland an den Start gehen. Man kann nur hoffen, dass sich die Zuverlässigkeit der Zusammenfassungen bis dahin verbessert hat.
„Uns in Deutschland betrifft das aktuelle Problem von Apple nicht direkt, da Apple Intelligence hierzulande bislang noch nicht verfügbar ist.“
Das stimmt nur für das iPhone. Auf dem mac gibt es Apple Intelligence, auch in Deutschland. 😉
Nur wenn du deinen Mac auf englische Sprache umstellst.
@midadi: Ich weiß, ich habe es schließlich getan. Meine Geräte sind seit Jahrzehnten auf Englisch. Aber die Systemsprache steht hier nicht zur Debatte. Die Aussage im Artikel betraf die Region Deutschland, und das ist eben falsch.
Es ist erschreckend, wie sehr sich Menschen auf den KI Output verlassen – weil die doch auf alles eine Antwort hat, die oft sogar stimmt.
Dass diese jedoch eigentlich gar nichts „weiß“ sondern nur mit den wahrscheinlichsten Wörtern (vereinfacht ausgedrückt) antwortet vergessen sie gerne.
Aber ich kann verstehen, dass der eigene Name eventuell nicht mit dem falschen Output in Verbindung gebracht werden sollte. Insofern sollte Apple den Verweis auf die Quellen wirklich unterlassen.
Ich denke das ist ein Gewöhnungsprozess, muss halt jeder erst mal mit auf die Nase fallen, dann prägt es sich ein, dass man einer KI nicht glauben sollte.
„Aber ich kann verstehen, dass der eigene Name eventuell nicht mit dem falschen Output in Verbindung gebracht werden sollte. Insofern sollte Apple den Verweis auf die Quellen wirklich unterlassen.“ Die Quellen sind aber das wichtigste an einen solchen Output, denn weis man worauf Apple sich bezieht und kann ggf. auch den echten kompletten Artikel lesen. Sonst wird Apple schnell in Richtung Bild Niveau abgestempelt, die auch viel zu oft „Vertrau mir Bruder“ als Quelle haben.
… ich mache mir eher Sorgen um die nächste oder übernächste Generation in der die KI auf Inhalte zugreift die Teils von ihr selbst erstellt wurde und wir Menschen eine gewisse Distanz zu echten Nachrichten oder sagen wir „Gewohnheit“ an die KI gewonnen haben. Irgendwann werden wir nicht mehr in der Lage sein zu wissen oder zu prüfen welche Aussage tatsächlich stimmt. Nur noch eine Handvoll Menschen, die real irgendwo vor Ort etwas erlebt haben, werden validieren können ob etwas stimmt. Alle anderen werden sich auf die Inhalte der KI verlassen müssen und diese Inhalte können eben irgendwann nicht mehr validiert werden.
Dann wird es erst wirklich interessant. Heute werden natürlich einzelne Fehltritte recht schnell identifiziert. Irgendwann nicht mehr… und dann ist unser handeln und unsere Entscheidungsfindung beeinflusst.
Bin wirklich gespannt, wie wir das in der Zukunft mal auflösen.
Aktuell nutze ich die Tools gerne, weil sie größtenteils tolle Ergebnisse liefern und Skepsis noch funktioniert. 🙄
Mach dir diesbezüglich keine Sorgen. Das allermeiste geschichtlich angesammelte Wissen, welches wir genutzt haben, aktuell nutzen oder bei dem wir auf alte Quellen verweisen – ist falsch, falsch adressiert oder basiert auf haltlosen Schätzungen.
Echte wissenschaftliche Grundlagen sind eine Sache von gerade mal (höchstens) einem Jahrhundert. Alles dahinter kann als falsch abgestempelt werden, es sei denn es beweist das Gegenteil. Und selbst in der aktuellen Wissenschaft gibt es leider noch viel zu viele Fälle von unzureichend recherchierten Quellen, weil es sich eben um Menschen handelt, die es tun müssen.
Maschinen können es besser – sie werden schlichtweg gerade noch in den Feinheiten getrimmt.
Deswegen brauchst du auch nicht um die Zukunft Angst zu haben, wo doch die Vergangenheit so dermaßen verblendet und hoffnungslos aussah.
Reg du beziehst es auf Wissenschaftliche Dinge, STR aufs Allgemeine und da muss man muss man nicht mal 100 Jahre zurück.
Wie viele deutsche waren noch nie in einen Arabischenland und beziehen ihr wissen wie es dort zugehen muss auf den Vorurteilen die sie durch ihre Arabischen Mitbürger haben. Gleiche Spielchen mit den USA, wie viele waren noch nie in den USA dem Land der Unbegrenzten Möglichkeiten und glauben dann einfach den ganzen RTL/ProSieben „Reportagen“ wo dann entweder komplett Arme mal begleitet werden oder Besserverdiener. Wie es dem Mittelstand dort geht, wissen die wenigsten Deutschen. Hier galt und wird immer gelten nur wer wirklich vor Ort war wird wissen wie es wirklich ist.
Noch extremer wird es wenn man im Urlaub sich mal die Typischen Instagram HotSpots anschaut und sieht wie viel
Fake da jetzt schon existiert und das wird sicherlich nicht besser werden mit KI und deren Möglichkeiten dass dann jeder entsprechend seine Videos/Fotos aufhübschen kann und seinen eigenen Wünschen (Fakewelt) angleichen kann.
Was meinst du wie viele alte Gemälde die Realität darstellen 😉
Da konnte man dem Künstler bereits vorher alle „Verbesserungen“ ordern.
Same old.
Klar ist das mit den Bildern die die Realität spiegeln sollen auch früher schon so gewesen. Nur macht nun 1 Influencer gefühlt im Monat mehr Fakefotos als 10 damalige Künstler in 10 Jahren zusammen an Gemälden malen konnte.
An sich sollte ich aber nur darauf hinaus, dass man sowieso immer selbst vor Ort sein muss um zu wissen ob es wirklich stimmt. Alles andere ist immer nur das typische Hören-sagen und könnte auch mit „Es war einmal“ eingeleitet werden.
👍🏻
Und zu den Geschichten über andere Völker war es ja wie du schon sagtest noch nie der Fall, dass ideologiefrei berichtet wurde.
Entweder waren es dehumanisierte Barbaren, wo man wegen selbst vergebenem, moralischen Highground alle Maßnahmen anwenden konnte. Oder es waren Exoten, die bereits kolonialisiert waren ;).
Heute verwendet man die absolut selben Kategorien – drückt es nur etwas hübscher aus.
Zwei Medienvertreter haben sich gemeldet und beschwert.
Wie viele Anfragen zur KI wurden inzwischen in den USA getätigt und wie viele unsinnige Antworten gab es wirklich – also wie hoch ist der Prozentsatz?
Das sollte untersucht werden. Alles andere ist nur Gedöhns.
PS: Selbstverständlich hat Version 1 immer schon Probleme gemacht – hier und da. Also warum dieser Hype um ….. nichts?
Wenn ich bedenke, wie viele Menschen heute schon den angeblich wahren Nachrichten der Sozialen Medien Glauben schenken und die öffentlich rechtlichen Sender Deutschland gleichzeitig abgeschafft sehen wollen, ist mir um den Wahrheitsgehalt einer Nachricht über KI (AI) von Apple nicht nur angst und bange, sondern mir wird kotzübel.🤢
Genau für Staatsmichel wie dich, werden solche Clickbaits fabriziert.
Die ÖR wollen die Leute abgeschafft sehen, weil man nicht dafür zahlen möchte. Wer das braucht, soll dafür zahlen. Die Sozialen Medien sind genauso wie ÖR. Es gibt dort zuverlässige Nachrichten als auch Falsche Behauptungen. Ich hoffe, die Quote von richtigen Informationen ist bei ÖR höher.
Ehrlich gesagt, mache ich mir bei KI die größte Hoffnung. Ich rede nicht von jetzt. Auch nicht in 5 Jahren. Aber Soziale Medien als auch ÖR werden auch in Zukunft nicht besser als jetzt. Man wird sich auch in Zukunft nur bedingt informieren können. Bei KI bin ich mir dagegen unsicher. KI wird mit der Zeit kompetenter. Irgendwelche YouTuber und Journalisten bei Tagesschau werden kaum in 10 Jahren intelligenter als jetzt. KI dagegen schon. KI wird auch in der Tat nicht an ihre Karriere hängen. KI hat keine Ideologie. KI hat keine eigene Meinung. KI wählt nicht eine bestimmte Partei. KI steht an keiner Seite. Noch ist das nicht ausgereift. Sehe ich bei ChatGPT. Da kriege ich noch oft falsche Antworten. Nur wird ChatGPT mit der Zeit schlauer. Die Menschheit wird das nicht. Da gibt es eine Grenze.
Sollte diese Geschichte überhaupt stimmen, dann ist das völlig irrelevant. Wie viele Nachrichten die KI bereits so veröffentlicht? Das KI manchmal Fehler macht. Das geht völlig in Ordnung. ChatGPT macht auch oft Fehler bei meinen Matheaufgaben. Kommt vor. Vertrauen in die Journalisten habe auch eher wenig. Wenn von 100 Nachrichten jetzt 2-3 Fake-News verbreitet wurden, dann geht das voll in Ordnung. Vorhandensein von Falschen Angaben ist irrelevant. Wichtig ist nur der Prozentualer Anteil. Und das Verständnis, dass man nichts 100 % wahr ansehen darf. Macht man nicht, wenn man auch seriöse Nachrichtenportale liest. Falsche Angaben sind immer vorhanden. Überall. Wenn es unter 10 % ist. Dann geht es in Ordnung. Kriegen die Spezialisten auch nicht besser hin.
Ich hatte bislang bezüglich dieser Falschmeldungen nie den Original text gesehen. Oftmals sind Nachrichten, gerade in USA, so kryptisch und reißerisch und verkürzt, dass man, zumindest als nicht nativ Speaker, auf den ersten Blick gar nicht genau weiß, was ausgedrückt werden soll.