otwiera się w nowym oknie
INFORMACJA PRASOWA 13 maja 2025

Apple zapowiada pojawienie się jeszcze w tym roku zaawansowanych ułatwień dostępu

Do nowych funkcji należą Accessibility Nutrition Labels w usłudze App Store, Lupa na komputer Mac, Braille Access i Accessibility Reader, a innowacyjne aktualizacje obejmują funkcje Live Listen, Głos indywidualny, system visionOS i wiele innych rozwiązań
Firma Apple zapowiedziała dziś pojawienie się jeszcze w tym roku nowych ułatwień dostępu, w tym funkcji Lupa na komputery Mac.
CUPERTINO, KALIFORNIA Firma Apple zapowiedziała dziś pojawienie się jeszcze w tym roku nowych ułatwień dostępu, w tym funkcji Accessibility Nutrition Labels, która ułatwi uzyskiwanie dokładniejszych informacji na temat aplikacji i gier w serwisie App Store. Osoby niewidzące lub niedowidzące mogą za pomocą debiutującej na komputerach Mac funkcji Lupa poznawać otoczenie, uczyć się i wchodzić w rozmaite interakcje. Dzięki kolejnej nowości, Braille Access, zrobią notatki i obliczenia, a świeże aktualizacje systemu visionOS pozwolą im na korzystanie z potężnego systemu kamer Apple Vision Pro. Zapowiedziano również Accessibility Reader, czyli nowy, działający w całym systemie tryb odczytu zaprojektowany z myślą o łatwym dostępie, a także aktualizacje funkcji Live Listen, Dźwięki tła, Głos indywidualny, Wizualizacja ruchu pojazdu i wielu innych. Połączenie potężnego układu scalonego Apple, bardziej zaawansowanych wewnętrznych algorytmów uczenia maszynowego oraz sztucznej inteligencji wyniesie ułatwienia dostępu na wyższy poziom w całym ekosystemie Apple.
„Ułatwienia dostępu są częścią DNA firmy Apple”, oświadczył Tim Cook, dyrektor generalny Apple. „Tworzenie dostępnej dla wszystkich technologii jest naszym wspólnym priorytetem i dlatego z dumą prezentujemy tegoroczne innowacje. Obejmują one narzędzia ułatwiające użytkownikom dostęp do najistotniejszych dla nich informacji, poznawanie otoczenia i robienie wszystkiego tego, co lubią najbardziej”.
„Już od 40 lat tworzymy w Apple innowacyjne ułatwienia dostępu i w dalszym ciągu z pasją udoskonalamy wszystkie produkty, wzbogacając je o nowe funkcje dostępności”, powiedziała Sarah Herrlinger, starsza dyrektor Apple w pionie Global Accessibility Policy and Initiatives. „Funkcje te, wykorzystujące potęgę ekosystemu Apple, płynnie ze sobą współpracują, tak aby użytkownik mógł robić rzeczy, na których mu najbardziej zależy na wiele nowych sposobów”.

Accessibility Nutrition Labels nowością w usłudze App Store

Wraz z funkcją Accessibility Nutrition Labels na stronach produktowych w serwisie App Store pojawi się nowa sekcja prezentująca ułatwienia dostępu w aplikacjach i grach. Dzięki nowym etykietom użytkownik jeszcze przed pobraniem aplikacji dowie się, czy będzie mógł z niej korzystać, a programiści zyskają możliwość poinformowania o działających w aplikacji funkcjach oraz ich obsłudze. Będzie to dotyczyło takich funkcji jak VoiceOver, Sterowanie głosowe, Większy tekst, Sufficient Contrast, Reduced Motion, napisy oraz innych ułatwień dostępu. Funkcja Accessibility Nutrition Labels zostanie udostępniona w serwisie App Store na całym świecie. Deweloperzy mogą też uzyskać dodatkowe informacje o kryteriach, jakie aplikacja musi spełnić, żeby etykieta o ułatwieniach dostępu została zamieszczona na stronie produktu.
„Funkcja Accessibility Nutrition Labels to przełom w zakresie ułatwień dostępu”, skomentował Eric Bridges, przewodniczący i dyrektor zarządzający fundacji American Foundation for the Blind. „Klienci zasługują na to, by od początku wiedzieć, czy konkretna aplikacja bądź usługa będzie dla nich dostępna. Firma Apple już od wielu lat dostarcza deweloperom narzędzia i technologie do tworzenia rozwiązań, z których będzie mógł korzystać każdy. Dzięki etykietom osoby z niepełnosprawnościami będą mogły szybko podjąć trafniejsze decyzje i czuć się znacznie pewniej, kiedy robią zakupy”.

Nowa Lupa na Maca

Wprowadzona w 2016 roku na iPhone’a i iPada funkcja Lupa udostępnia osobom niewidomym lub niedowidzącym narzędzia do powiększania, odczytywania tekstu i wykrywania znajdujących się w pobliżu obiektów. W tym roku Lupa debiutuje na komputerze Mac, sprawiając, że świat fizyczny staje się dostępniejszy dla osób z dysfunkcją wzroku. Aplikacja Lupa na Maca łączy się z aparatem w telefonie użytkownika, przybliżając przedmioty z otoczenia, np. ekran czy tablicę. Lupa współpracuje z kamerą Continuity iPhone’a oraz kamerami podłączonymi przez port USB, a dzięki funkcji Widok blatu pomaga w odczytywaniu dokumentów.
Użytkownicy korzystający z kilku aktywnych okien mogą pracować wielozadaniowo, na przykład wyświetlać prezentację na kamerze internetowej i jednocześnie śledzić tekst w książce dzięki funkcji Widok blatu. Mając do dyspozycji spersonalizowane widoki i możliwość zmiany jasności, kontrastu, filtrów barwnych, a nawet perspektywy, mogą dostosować do siebie widoczność tekstu i obrazów. Widoki można dodatkowo rejestrować, grupować i zapisywać na później. Co więcej, Lupa na Maca została zintegrowana z inną funkcją dostępu, Accessibility Reader, która przetwarza tekst z fizycznego otoczenia użytkownika na specjalny, dający się odczytać format.
Aplikacja Luba pokazana na komputerze Mac.
Zapowiadana na ten rok nowa aplikacja Lupa na Maca sprawi, że świat fizyczny stanie się bardziej dostępny dla osób z wadami wzroku.

Nowy sposób korzystania z Braille’a

Braille Access to funkcja, jakiej jeszcze nie było. Zmienia iPhone’a, iPada, Maca i Apple Vision Pro w pełni wyposażony notatnik brajlowski całkowicie zintegrowany z ekosystemem Apple. Dzięki wbudowanej funkcji uruchamiania aplikacji użytkownicy mogą łatwo otworzyć dowolną aplikację, wprowadzać pismo Braille’a za pomocą funkcji Wejście ekranu Braille’a lub podłączonego monitora brajlowskiego. Braille Access daje użytkownikom możliwość szybkiego robienia notatek pismem Braille’a oraz wykonywania obliczeń za pomocą Nemeth Braille, czyli kodu brajlowskiego często używanego podczas lekcji matematyki czy przyrody. Użytkownicy mogą bezpośrednio w Braille Access, otwierać pliki BRF (Braille Ready Format) czy korzystać z szerokich zbiorów książek i plików utworzonych wcześniej za pomocą notatnika brajlowskiego. Do tego zintegrowana funkcja Napisy na żywo umożliwia transkrypcję rozmów w czasie rzeczywistym bezpośrednio na monitorze brajlowskim.

Nowa funkcja Accessibility Reader

Accessibility Reader to nowy, dostępny w całym systemie tryb odczytu ułatwiający czytanie osobom z różnymi niepełnosprawnościami, na przykład dysleksją czy niedowidzeniem. Funkcja Accessibility Reader dostępna jest na iPhonie, iPadzie, komputerze Mac i Apple Vision Pro. Otwiera przed użytkownikami nowe sposoby personalizacji tekstu oraz skupiania się na treści, którą chcą przeczytać. Pomogą im w tym opcje czcionki, kolorów, odstępów oraz obsługa funkcji Zawartość mówiona. Rozwiązanie Accessibility Reader można uruchomić w dowolnej aplikacji. Jest ono również zintegrowane z aplikacją Lupa dla systemu iOS, iPadOS i macOS, pozwalając użytkownikom na odczytywanie tekstu z fizycznego otoczenia, na przykład książek czy menu.
Funkcja Accessibility Reader pokazana na dwóch urządzeniach iPhone 16.
Accessibility Reader to nowy, działający w całym systemie tryb odczytu dostępny na iPhonie, iPadzie, komputerze Mac i Apple Vision Pro. Jest wyposażony w nowe opcje personalizacji i pozwala użytkownikom lepiej skupić się na czytanym tekście.

Podpisy na żywo po raz pierwszy na Apple Watch

Niesłyszący lub niedosłyszący użytkownicy Apple Watch mogą teraz sterować na nim funkcją Live Listen wzbogaconą o szereg nowych opcji, w tym Napisy na żywo w czasie rzeczywistym. Live Listen zmienia iPhone’a w zdalny mikrofon, umożliwiając strumieniowane treści bezpośrednio do słuchawek AirPods, aparatu słuchowego Made for iPhone lub słuchawek Beats. Po rozpoczęciu sesji na iPhonie, użytkownicy mogą za pomocą funkcji Napisy na żywo jednocześnie słuchać odtwarzanych na nim materiałów audio i czytać ich transkrypcję na Apple Watch sparowanym z iPhonem. Apple Watch staje się pilotem, który pozwala włączyć lub wyłączyć sesję Live Listen bądź cofnąć się do momentu, w którym użytkownikowi coś uciekło. Użytkownicy Apple Watch mogą sterować sesjami Live Listen z odległości, zatem bez konieczności wstawania podczas spotkania czy lekcji. Z funkcji Live Listen można korzystać razem z rozwiązaniami wspierającymi zdrowie słuchu dostępnymi w słuchawkach AirPods Pro 2, w tym pierwszą w swoim rodzaju funkcją aparatu słuchowego jakości klinicznej.
Funkcja Live Listen pokazana na iPhonie 16 i Apple Watch.
Live Listen debiutuje na Apple Watch i zyskuje nowy pakiet funkcji, w tym Napisy na żywo w czasie rzeczywistym.

Udoskonalony widok w Apple Vision Pro

visionOS poszerza dotychczasowe ułatwienia dostępu dla użytkowników niewidomych lub niedowidzących za pośrednictwem zaawansowanego systemu kamer w Apple Vision Pro. Potężne aktualizacje funkcji Zoom pozwalają użytkownikom powiększyć wszystko w zasięgu ich wzroku – łącznie z elementami otoczenia – za pomocą kamery głównej. Dzięki wewnętrznym algorytmom uczenia maszynowego funkcja Rozpoznawanie na żywo wspiera osoby korzystające z rozwiązania VoiceOver poprzez opisywanie na głos ich otoczenia, odczytywanie dokumentów, wyszukiwanie przedmiotów i wiele innych czynności1. Deweloperzy rozwijający funkcje dostępu będą mogli w swoich zatwierdzonych aplikacjach skorzystać z nowego interfejsu API dającego dostęp do kamery głównej. Użytkownicy zyskają w ten sposób więcej sposobów na poznawanie otaczającego ich świata bez użycia rąk, np. poprzez bieżącą, indywidualną pomoc w rozpoznawaniu przedmiotów, na przykład w aplikacji Be My Eyes.
Potężne aktualizacje funkcji Zoom w Apple Vision Pro pozwalają użytkownikom powiększyć wszystko w zasięgu ich wzroku – łącznie z elementami otoczenia – za pomocą kamery głównej. Widać, jak znajdujący się w kuchni użytkownik Apple Vision Pro powiększa prostokątny obszar, by lepiej przyjrzeć się stronom książki kucharskiej i przepisom, a następnie odhacza składniki w aplikacji Notatki.

Dodatkowe uaktualnienia

  • Funkcję Dźwięki tła można łatwiej spersonalizować za sprawą nowych ustawień korektora, opcji automatycznego zatrzymywania po określonym czasie oraz kilku nowych czynności automatyzacji dostępnych w aplikacji Skróty. Dźwięki tła ograniczają rozpraszacze i pomagają użytkownikom w koncentrowaniu się i relaksacji. Rozwiązanie to jest skuteczne zwłaszcza dla osób cierpiących na szumy uszne.
  • Dla osób zagrożonych utratą mowy przydatna będzie funkcja Głos indywidualny, która dzięki użyciu najnowszych wewnętrznych algorytmów uczenia maszynowego oraz sztucznej inteligencji działa jeszcze szybciej, wygodniej i wszechstronniej. Do wygenerowania płynnego i naturalnego głosu potrzebować będzie niespełna minuty i tylko 10 zarejestrowanych fraz. Funkcja Głos indywidualny obsługiwać będzie dodatkowo język hiszpański (Meksyk)2.
  • Funkcja Wizualizacja ruchu pojazdu, która pomaga złagodzić objawy choroby lokomocyjnej w czasie podróży pojazdem, pojawia się teraz na komputerze Mac i zyskuje nowe opcje personalizacji animowanych kropek na iPhonie, iPadzie i Macu.
Funkcja Wizualizacja ruchu pojazdu, która pomaga złagodzić objawy choroby lokomocyjnej, debiutuje na komputerze Mac.
  • Użytkownicy korzystający z rozwiązania Śledzenie oczu na iPhonie i iPadzie mogą teraz dokonywać wyborów poprzez użycie przełącznika lub funkcji zatrzymanie. Wprowadzone w ramach tej aktualizacji udoskonalenia, takie jak nowy licznik czasu zatrzymania, mniejsza liczba czynności podczas pisania przy użyciu przełączników czy obsługa funkcji QuickPath dla iPhone’a i Vision Pro, sprawiają, że pisanie na klawiaturze ze Śledzeniem oczu lub Sterowaniem przełącznikami staje się na iPhonie, iPadzie i Apple Vision Pro jeszcze prostsze.
  • Funkcja Śledzenie głowy, działająca podobnie do Śledzenia wzroku, pozwala sterować iPhonem i iPadem za pomocą ruchów głowy.
  • Użytkowników z poważną niepełnosprawnością narządu ruchu wspierać będzie w systemie iOS, iPadOS i visionOS nowy protokół funkcji Sterowania przełącznikami przeznaczony dla interfejsów BCI (Brain Computer Interfaces) stanowiących rozwijającą się technologię umożliwiającą sterowanie urządzeniem za pomocą ruchów ciała.
  • Dostęp wspomagany zostaje poszerzony o nową, specjalną aplikację Apple TV z uproszczonym odtwarzaczem. Deweloperzy zyskają również dodatkowe narzędzia w interfejsie API funkcji Dostęp wspomagany do tworzenia rozwiązań skrojonych pod potrzeby użytkowników z ograniczeniami intelektualnymi i rozwojowymi.
  • Haptyka muzyki na iPhonie staje się bardziej osobista dzięki opcji zastosowania jej do całej piosenki bądź tylko ścieżki wokalnej oraz możliwości dostosowania ogólnej intensywności stuknięć, tekstury i wibracji.
  • Funkcja Rozpoznawanie dźwięku zostaje rozbudowana o nową opcję rozpoznawania imion, dzięki której niesłyszący lub niedosłyszący użytkownicy będą wiedzieć, kiedy ktoś wypowie ich imię.
  • Sterowanie głosowe zyskuje nowy tryb programowania w aplikacji Xcode przeznaczony dla programistów z ograniczoną sprawnością ruchową. W ramach tego ułatwienia dostępu dostępna będzie również synchronizacja słowników na różnych urządzeniach oraz obsługa dodatkowych języków, tj. angielskiego (Singapur), arabskiego (Arabia Saudyjska), chińskiego mandaryńskiego (Tajwan), hiszpańskiego (Ameryka Łacińska), koreańskiego, rosyjskiego, tureckiego i włoskiego.
  • Pakiet języków w funkcji Podpisy na żywo zostaje poszerzony o język angielski (Indie, Australia, Wielka Brytania, Singapur), chiński mandaryński (Chiny kontynentalne), francuski (Francja, Kanada), hiszpański (Ameryka Łacińska, Hiszpania), japoński, kantoński (Chiny kontynentalne, Hongkong), koreański i niemiecki (Niemcy).
  • W ramach zapowiadanych aktualizacji funkcja CarPlay zyska obsługę Dużej czcionki. Dzięki odświeżonej funkcji Rozpoznawanie dźwięku niesłyszący lub niedosłyszący kierowcy i pasażerowie korzystający z CarPlay otrzymają teraz powiadomienia o płaczu dziecka, a  nie tylko dźwękach dochodzących z zewnątrz pojazdu, takich jak odgłos klaksonu czy syreny.
  • Za pomocą funkcji udostępniania ustawień dostępności użytkownicy mogą szybko przenieść na jakiś czas ustawienia własnych ułatwień dostępu na innego iPhone’a lub iPada. To rozwiązanie świetnie sprawdzi się, kiedy trzeba pożyczyć urządzenie znajomego lub skorzystać z infokiosku, na przykład w kawiarni.

Obchody Światowego Dnia Świadomości Dostępności w Apple

Przez cały maj zespół sprzedażowy Apple aranżuje w wybranych sklepach specjalne wystawy prezentujące ułatwienia dostępu wbudowane w różne urządzania. Dodatkowo przez cały rok w ofercie Apple dostępne są sesje Today at Apple poświęcone ułatwieniom dostępu, ich obsłudze oraz opcjom personalizacji. Na sesje w dowolnym salonie Apple na całym świecie można zapisać się na stronie rezerwacji dla grup lub bezpośrednio w najbliższym salonie.
W serwisie Apple Music prezentowana jest historia artysty Kiddo K oraz ogromnego znaczenia haptyki muzycznej dla osób niesłyszących i niedosłyszących. Na użytkowników czekać będą również zaktualizowane playlisty haptyczne, i zupełnie nowa playlista z tłumaczeniem wideoklipów na amerykański język migowy, a także playlisty Saylists.
W treningu tanecznym w Apple Fitness+ gościnnie występuje Chelsie Hill oraz trener Fitness+ Ben Allen. Chelsie jest profesjonalną tancerką i założycielką Rolettes -pochodzącej z Los Angeles grupy tanecznej na wózkach inwalidzkich, która działa na rzecz równości niepełnosprawnych i promuje siłę kobiet. Trening jest dostępny już teraz w aplikacji Fitness+.
W aplikacji Apple TV+ udostępnione zostało nagranie zza kulis nowej produkcji Apple Original pod tytułem Deaf President Now!, która będzie miała swoją premierę w Apple TV+ 16 maja. Film opowiada o największym spośród nieznanych niemal nikomu ruchu obywatelskim, który działał przez osiem burzliwych dni w 1988 roku. Na jedynym na świecie uniwersytecie dla niesłyszących czworo studentów musi odnaleźć sposób, by pokierować rozgoryczonym tłumem i zmienić bieg historii.
Apple Books, Apple Podcasts, Apple TV oraz Apple News będą prezentować historie osób z niepełnosprawnościami oraz osób działających na rzecz zwiększania dostępności dla wszystkich.
Serwis App Store oferuje kolekcję aplikacji i gier, które powstały z myślą o dostępności dla każdego. Dodatkowo można zapoznać się w nim z historią Klemensa Strassera, programisty, którego misją jest tworzenie właśnie takich aplikacji i gier, na przykład The Art of Fauna.
W aplikacji Skróty pojawia się nowa funkcja Hold That Thought, która sugeruje użytkownikowi utrwalenie informacji w formie notatki, a następnie przejrzenie zapisków. To sposób na uniknięcie rozpraszaczy i zachowanie ciągłości pracy. Skrót Accessibility Assistant pojawia się w aplikacji Skróty na Apple Vision Pro, ułatwiając rekomendowanie ułatwień dostępu w oparciu o preferencje użytkownika.
Na kanale Apple Support playlista Apple Accessibility zostaje wzbogacona o nowe filmy, w tym prezentujące takie funkcje jak Śledzenie wzroku, Skróty głosowe czy Wizualizacja ruchu pojazdu. Dodana zostaje również biblioteka filmów ułatwiających personalizację i optymalizację działania iPhone’a, iPada, komputera Mac, Apple Watch i Apple Vision Pro.
Udostępnij artykuł

Media

  • Tekst tego artykułu

  • Zdjęcia z tego artykułu

  1. Nie należy korzystać z funkcji Rozpoznawanie na żywo w sytuacjach wysokiego ryzyka lub nadzwyczajnych, bądź w których użytkownik może doznać uszczerbku na zdrowiu. Nie zaleca się korzystania z tej funkcji na potrzeby nawigacji.
  2. Funkcji Głos indywidualny można używać tylko do tworzenia na urządzeniu głosu, który brzmi jak głos użytkownika. Jest ona przeznaczona do osobistego, niekomercyjnego użytku.

Kontakty dla prasy

Elena Yamshikova

Apple

[email protected]