Apple baut die im Vorjahr eingeführte Musikhaptik-Funktion weiter aus. Mit der Veröffentlichung von iOS 19 im Herbst erhalten iPhone-Nutzer neue Optionen, um Musik nicht nur zu hören, sondern auch zu spüren.
Die Funktion richtet sich in erster Linie an Menschen mit Hörbeeinträchtigungen. Sie ermöglicht es, über die Taptic Engine des iPhones taktile Rückmeldungen zu erhalten, die auf Musikdaten basieren.
Bereits mit iOS 18 wurde das Feature unter dem Namen „Music Haptics“ eingeführt. Es nutzt Vibrationen und feine Impulse, um Rhythmus und Struktur von Liedern fühlbar zu machen. Diese Impulse lassen sich über den gesamten Song hinweg oder gezielt für einzelne Bestandteile wie den Gesang aktivieren. In der neuen Version wird Apple fortan auch eine individuelle Anpassung der Intensität der Vibrationen ermöglichen. Nutzer können entscheiden, wie stark die Klopfmuster, Texturen und Signale ausgegeben werden sollen. Zudem steht Entwicklerinnen und Entwicklern eine Schnittstelle zur Verfügung, um Musikhaptik in eigene Apps zu integrieren.
Playlisten mit Gebärdensprache und Musikgefühl
Parallel zur technischen Weiterentwicklung arbeitet Apple auch an inhaltlichen Angeboten für gehörlose oder schwerhörige Menschen. Der Musikdienst Apple Music erweitert sein Repertoire an haptischen Playlisten und stellt neue Musikvideos mit Gebärdensprache (ASL) vor. Diese Inhalte sollen die Musikhaptik ergänzen und verschiedene Zugänge zur Musik ermöglichen.
Ein die Ankündigung begleitendes Video porträtiert den US-amerikanischen Musiker Kiddo K, der einen Teil seines Gehörs infolge einer Erkrankung in seiner Kindheit verlor. Er beschreibt, wie die Musikhaptik für ihn eine Möglichkeit darstellt, Musik körperlich zu erleben.
Die neuen Musikhaptik-Funktionen werden mit iOS 19 zur Verfügung stehen und sollen den Musikkonsum barrierefreier gestalten.
Der Beitrag Apple erweitert Musikhaptik: Neue Funktionen in iOS 19 erschien zuerst auf iphone-ticker.de.