Die technologische Diskussion der letzten Monate hat einen unbestrittenen Protagonisten: Apples neue KI-Engine in Siri integriert, das im Internet suchen und sofort Antworten im Stil moderner generativer Assistenten liefern kann. Leaks deuten auf ein System hin, das nicht nur Fragen beantwortet, sondern auch generiert prägnante Zusammenfassungen, Bilder und Videos direkt von iOS, iPadOS und macOS, mit Safari und Spotlight als natürliche Gateways.
Das Auffälligste ist, wer hinter dieser großen Wette stecken könnte: Google würde eine angepasste Version von Gemini bereitstellen die auf privaten Servern laufen würden, die von Apple selbst kontrolliert werden, wodurch die Privatsphäre gewahrt bleibt. Inzwischen beschleunigt Apple seinen Fahrplan für Apple Intelligence, seine persönliche KI-Plattform, die jetzt auf Spanisch mit einer ganzen Reihe neuer Funktionen für iPhone, iPad, Mac, Apple Watch und sogar Apple Vision Pro verfügbar ist.
Apples Plan: eine KI-gestützte Suchmaschine für Siri, Safari und Spotlight

Wie Mark Gurman in Bloomberg berichtete, arbeitet Apple an einem KI-gestützte Reaktions-Engine dessen interner Name „Answers“ gewesen wäre, entwickelt, um Siri mit Internetergebnissen zu versorgen und komprimierte Informationen mit Kontext, Bildern und Videos zurückzugeben. Dieser Ansatz würde Suchfunktionen bringen über den Assistenten hinaus, und bettet sie auch in Safari und Spotlight ein, sodass sie genau dort angezeigt werden, wo der Benutzer seine Abfragen startet.
Die Nachricht kommt nicht allein: Apple hätte bereits eine Vereinbarung mit Google eine Variante von Gemini zu verwenden, die auf der privaten Infrastruktur des Unternehmens aus Cupertino laufen würde. Die Idee ist, die Verarbeitung unter einem Verbesserter Datenschutz, wodurch verhindert wird, dass Daten in der Cloud verbleiben und die Gefährdung durch Dritte verringert wird.
Bevor Apple sich für diesen Weg entschied, erwog es andere Alternativen wie Anthropic, OpenAI und sogar die Übernahme von Perplexity, aber der Deal mit Google wäre attraktiver und profitabler gewesen. Trotzdem wird das Unternehmen vorsichtig vorgehen: Nach den Verzögerungen der neuen Siri im Jahr 2024 wird es vermeiden, etwas anzukündigen, das noch nicht fertig ist und wird den Schritt nur unternehmen, wenn das Produkt seinen Standards entspricht.
Interne Quellen sprechen von einer Siri mit LLM dessen Leistung nahe an dem liegen würde, was wir von einem ChatGPT erwarten, obwohl die Bereitstellung schrittweise und von der Stabilität abhängig wäre. Die Roadmap weist auf Meilensteine im nächsten Jahr hin, mit einer Marge von bis zu 2026 wenn technische Hindernisse auftreten, die eine Anpassung der Prioritäten erzwingen.

Apple Intelligence Today: Neue nützliche und private Funktionen
Parallel zur neuen Suchmaschine hat Apple ein leistungsstarkes Paket neuer Funktionen angekündigt Apple Intelligence Das System erstreckt sich über iPhone, iPad, Mac, Apple Watch und Apple Vision Pro. Die Prämisse besteht darin, eine KI anzubieten, die den Kontext des Geräts und des Benutzers versteht, mit Verarbeitung auf dem Computer selbst und skalieren Sie privat in die Cloud, wenn die Aufgabe größere Modelle erfordert.
Der große Star des Augenblicks ist Live-Übersetzung, nativ integriert in Nachrichten, FaceTime und Telefon. In Nachrichten werden Texte während der Eingabe automatisch in die bevorzugte Sprache des Empfängers übersetzt; in FaceTime erscheinen sie live übersetzte Untertitel; und bei Telefongesprächen können Sie die Übersetzung während des Gesprächs laut hören, alles mit Modellen, die von Apple entworfen und ausgeführt wurden auf dem Gerät.
Auch die Kreativität wird gefördert: Image Playground und Genmoji Jetzt können Sie Emojis und Beschreibungen mischen, um neue Kombinationen zu erstellen, die Merkmale von Personen in Bildern anzupassen, die von Ihrer Fotobibliothek inspiriert sind, und zusätzliche Stile verwenden, wie Ölgemälde oder VektorgrafikenDarüber hinaus können Sie mit der Option „Jeder Stil“ genau beschreiben, was Sie möchten, und ein benutzerdefiniertes Bild generieren. Mit Ihrer ausdrücklichen Zustimmung können Sie ChatGPT um Hilfe bitten.
Ein weiterer qualitativer Sprung kommt mit Visuelle Intelligenz, die sich nicht mehr auf das beschränkt, was die Kamera sieht: Jetzt versteht und reagiert sie Was ist auf Ihrem Bildschirm in jeder App. Sie können ChatGPT nach den Inhalten fragen, die Sie gerade ansehen, nach ähnlichen Produkten oder Bildern auf Google, Etsy und anderen Apps suchen, ein Objekt hervorheben um Ihre Suche zu verfeinern oder dem Kalender ein Ereignis hinzuzufügen, wenn ein Datum erkannt wird. Greifen Sie darauf zu, indem Sie auf dieselben Schaltflächen wie im Screenshot tippen und dann „Mit KI erkunden“ auswählen.
Auf der Apple Watch erscheint Trainingspartner, ein KI-Trainer, der Ihre Herzfrequenz, Ihr Tempo, Ihre Distanz, Ihre Meilensteine und mehr in Echtzeit analysiert, um Ihnen personalisierte MotivationsnachrichtenEine neue, generative Stimme, die von Fitness+-Trainern entwickelt wurde, wandelt Statistiken in dynamische Anleitungen um, die Sie durch Ihre Sitzung führen.

Siri macht Ernst: Kontext, Schreiben und externe Modellunterstützung
Die neue Siri wurde von Grund auf neu aufgebaut auf Apple Intelligence, um natürliche Sprache zu verstehen, Sie zu verfolgen, wenn Sie nicht weiterkommen, und den Kontext zwischen Anfragen aufrechtzuerhalten. Es kann verstehen, was auf dem Bildschirm ist und handeln Sie danach: Wenn Ihnen jemand eine Adresse schickt, bitten Sie ihn einfach, sie zu speichern, und Siri weiß ohne weitere Zwischenschritte, was Sie meinen.
Zusätzlich zur Stimme beinhaltet Siri die Schreibmodus: Sie können Anfragen eingeben, indem Sie auf den unteren Bildschirmrand tippen. Dadurch wird der Rand des iPhones beleuchtet und der Inhalt angezeigt. Für offenere oder kreativere Anfragen kann Siri verlassen Sie sich auf ChatGPT wenn Sie es genehmigen, sogar mit Integration Ihres Zahlungskontos, wenn Sie erweiterte Antworten wünschen.
Schreiben, Bilder und Fotos: Produktivität mit Spark
Die Schreibwerkzeuge ermöglichen es Ihnen, einen Text neu zu schreiben, zu überarbeiten und zusammenzufassen, den Ton zu ändern und Grammatik und Struktur anzupassen. Mit „Beschreiben Sie Ihre Änderung“ können Sie genau angeben, welche Änderung Sie wünschen, und die KI kümmert sich um den Rest, ob in E-Mail, Notizen, Seiten oder sogar in Safari-Inhalten.
Im Gesichtsfeld Image Playground Erstellen Sie Bilder in Sekundenschnelle und Genmoji können Sie einzigartige Emojis aus einer Beschreibung erstellen. Wenn Sie Apple Pencil verwenden, verwandelt der Image Wand eine schnelle Skizze in ein effektive Illustration die Sie zu Ihren Lieblings-Apps mitnehmen können.
Die Fotos-App fügt die Entwurfsmodus um aufdringliche Objekte oder Personen zu entfernen, ohne die Treue zu beeinträchtigen, und erweitert Erinnerungen mit einem kohärenteren Erzählstrang. Die Suche mit Natürliche Sprache versteht Anfragen wie „Fotos auf Gesichter kleben“ und integriert sich besser in Ihre Organisationsgewohnheiten.
Es gibt auch E-Mail-Zusammenfassungen, Smart Replies in Mail und Nachrichten, umfangreiche Vorschauen und ein Posteingang mit Prioritätsnachrichten damit das Dringende nicht im Lärm untergeht.
Visuelle Intelligenz, Verknüpfungen und ein Framework für Entwickler
Der Ausbau von Visuelle Intelligenz Es ist mehr als nur eine Kuriosität: Es verwandelt den Bildschirm in eine interaktive Oberfläche, auf der Sie Objekte erkennen können, Daten extrahieren um Ereignisse zu erstellen oder nach ähnlichen Produkten zu suchen. Alles ist darauf ausgelegt, Schritte zu sparen und die Reibung bei Aufgaben zu reduzieren, die zuvor mehrere Fingertipps erforderten.
Die Verknüpfungen Sie stellen jetzt eine direkte Verbindung mit Apple Intelligence her und starten intelligente Aktionen, um Text zusammenzufassen, Bilder mit Image Playground zu erstellen oder Informationen kombinieren in komplexen Abläufen. Sie können Modellantworten in den Rest der Verknüpfung, auf dem Gerät oder mit Private Cloud Computing integrieren und dabei die Privatsphäre wahren.
Für diejenigen, die Produkte bauen, eröffnet Apple die Rahmen grundlegender Modelle: Jede App kann das großartige On-Device-Modell nutzen, das Apple Intelligence mit nativer Unterstützung für Swift unterstützt. Laut Apple müssen Sie lediglich drei Codezeilen um unterstützte Generierung, Tool-Aufrufe und mehr ohne API-Kosten oder Verbindungsabhängigkeit zu integrieren.
Die Anwendungsfälle sind vielfältig: von einer Lern-App, die eine personalisierter Fragebogen von Ihren Notizen, ohne Ihr Gerät zu verlassen, bis hin zu einer Wander-App, die hinzufügt Suche in natürlicher Sprache auch ohne Deckung.
Apple Watch und Workouts: KI-gestützter Personal Trainer
Mit watchOS 26 Trainingspartner Analysiert Ihre Aktivität im laufenden Betrieb und bietet Ihnen nützliche Hinweise basierend auf Ihrem Verlauf: Herzfrequenz, Tempo, Distanz, persönliche Meilensteine und mehr. Dank eines neuen Text-to-Speech-Modells hören Sie eine generative Stimme, die den Stil und die Energie der Fitness+-Trainer einfängt, um Sie zu motivieren.
Diese Funktion verarbeitet die Daten auf eine Weise privat und sicher mit Apple Intelligence. Erfordert eine kompatible Apple Watch mit Bluetooth-Kopfhörern und ein iPhone mit Apple Intelligence in der Nähe. Die Erstveröffentlichung ist auf Englisch verfügbar und umfasst beliebte Workouts wie Laufen im Freien und in der Halle, Gehen, Radfahren, HIIT und Krafttraining.
Kompatibilität, Sprachen und Verfügbarkeit
Apple Intelligence kommt auf Spanisch und wird auf weitere Sprachen ausgeweitet. Später in diesem Jahr werden weitere Sprachen hinzugefügt. acht neue SprachenDänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, traditionelles Chinesisch und Vietnamesisch, zusätzlich zu den bereits unterstützten Sprachen. Die Bereitstellung kann je nach Region und lokalen Gesetzen variieren.
Was die Geräte betrifft, umfasst die Kompatibilität alle iPhone 16, iPhone 15 Pro und Pro Max, iPad mini mit A17 Pro und iPad und Mac mit M1-Chip oder neuer. Um es zu aktivieren, müssen Siri und die Systemsprache übereinstimmen. Für einige Funktionen gelten besondere Voraussetzungen: So ist beispielsweise das Hinzufügen von Ereignissen zum Kalender mit Visual Intelligence möglich. en alemán auf dem iPhone 16 und iPhone 15 Pro/Max; und Live-Übersetzung hat eine unterschiedliche Sprachabdeckung in Nachrichten im Vergleich zu Telefon und FaceTime.
Entwickler können die neuen Funktionen jetzt testen über die Apple Entwicklerprogramm, und die öffentliche Beta wird über das Beta-Softwareprogramm von Apple verteilt. Im Laufe des Jahres werden verschiedene Funktionen für Benutzer mit unterstützten Geräten und einer konfigurierten Sprache veröffentlicht.
iOS 26, macOS Tahoe und das neue Liquid Glass-Design
Apple hat seinen Systemen eine optische und funktionale Wendung gegeben: Ästhetik kommt Flüssiges Glas, mit durchscheinenden Symbolen und schwebenden Steuerelementen, die bei Bedarf angezeigt werden, ohne Sie bei Ihrer Arbeit zu behindern. Die Änderung vereinheitlicht die Nummerierung: Alle Plattformen haben jetzt am Ende eine 26, um den Zyklus widerzuspiegeln.
In iOS 26 sind Anrufe, Video- und Social-Media-Kommunikation in einer einzigen Liste zusammengeführt werden von wo aus Aktionen eingeleitet werden können. Call Screening zeigt, wer anruft und was er in einer Nachricht hinterlässt, Chats unterstützen dynamische Hintergründe und KI ermöglicht Gruppenfunktionen. Apple Music übersetzt Liedtexte und bietet die Aussprache; Maps lernt Ihre Routen und schlägt die beste Route mit Ihren üblichen Stopps vor.
Visual Intelligence funktioniert mit einem einfachen Klick auf Fotos, Objekte oder Adressen: Sie können ein Kleidungsstück erfassen, das Sie in einem sozialen Netzwerk gesehen haben, und Suche ähnlich, oder schnappen Sie sich ein Konzertplakat und fügen Sie Ihre Veranstaltung mit einem Fingertipp Ihrem Kalender hinzu. CarPlay entwickelt sich mit mehr Anpassungsmöglichkeiten und Debüts Auto Play Ultra, das das Erlebnis über die Mittelkonsole hinaus integriert.
Auf dem Mac macOS Tahoe Bessere Nutzung des Großformats mit transparenten Bedienelementen, glatter Kontinuität, neuen Shortcuts und ein Spotlight, das tief in Apple Intelligence integriert ist. Folgendes wird angezeigt: Schnelltasten zum Auslösen von Aktionen durch die Eingabe kleiner Sequenzen und eine Spiele-App, die das Gerät in eine Konsole mit spektakulärer Grafik verwandelt.
iPadOS 26 unterstützt die Multitasking mit mehreren Apps in der Ansicht, kontextbezogenen Steuertasten und einem oberen Menü pro App; tvOS 26 vereinfacht die Wiedergabe mit durchsichtigen Steuerelementen und verbesserten Profilen; und tvOS integriert Apple Intelligence, um inmersión Reduzierung des visuellen Rauschens
Datenschutz durch Design: vom Gerät bis zur privaten Cloud
Der Vorschlag von Apple basiert auf einer Schlüsselidee: Ihre Informationen werden auf Ihrem Gerät verarbeitet wann immer möglich. Wenn ein größeres Modell benötigt wird, kommt Private Cloud Computing ins Spiel, eine Umgebung mit Apple-Chips, in der der Code durch Experten überprüfbar unabhängig, um zu überprüfen, dass keine Daten zurückgehalten werden.
Das Unternehmen verspricht, dass speichert oder teilt nicht personenbezogene Daten in diesen Prozessen und dass der Zugriff auf externe Dienste wie ChatGPT nur mit Ihrer ausdrücklichen Zustimmung erfolgt. Dies ist ein wichtiger Schritt zur Bereitstellung nützlicher KI, ohne die Vertraulichkeit die viele Benutzer vom Ökosystem erwarten.
Die neue KI: Apple setzt endlich alles auf eine Karte
Das Gesamtbild ist klar: Apple gestaltet eine KI-Engine Dadurch werden Suche, Bildschirmkontext und umsetzbare Antworten in Siri, Safari und Spotlight vereint und gleichzeitig die Apple Intelligence auf alle Systeme ausgeweitet.
Zwischen Live-Übersetzungen, visueller Intelligenz, die versteht, was Sie sehen, einem generativen Stimmtrainer für das Handgelenk, zeitsparenden Schreib- und Erstellungstools und einem Framework für Entwickler, mit dem sie mit nur wenigen Zeilen KI hinzufügen können, das Ökosystem wird nützlicher, ohne die Privatsphäre zu vernachlässigen.
Es liegen noch Herausforderungen vor uns – Siri und die KI-Suche werden das Tempo vorgeben –, aber die Richtung ist eingeschlagen und die Teile fügen sich bereits in den Händen der Benutzer zusammen. Wird dies die nächste große Revolution sein, auf die Tim Cook gehofft hat?
