Усі «приховані» інтеграції штучного інтелекту в iOS 17
Те, що певний продукт не має типового штучного інтелекту, не означає, що він не використовує його. Тут ясний приклад - Apple. У них немає нічого схожого на ChatGPT 4 - вибачайте, Siri - він не може генерувати зображення, як Midjourney, і не робить нічого, що ми можемо прямо пов'язати зі штучним інтелектом.
Однак, після того, як вони витратили велику кількість грошей на це, що ми бачили в їхніх останніх квартальних результатів, ми мусимо побачити певні зміни. Особисто я вважаю, що є багато речей, які вони ще не показують нам, таких як Ajax, Chat-GPT від Apple, який побачить світ протягом одного або двох років. В будь-якому випадку, штучний інтелект в iOS 17 більш інтегрований, ніж може здатися на перший погляд.
Прихована, але функціональна інтеграція
Нещодавно ми пояснили на Icoola, як зробити так, щоб Siri звучала як ми. Це процес, в якому нам потрібно записати 150 фраз, і через 24 години обробки, вона буде звучати як ми. Це передовий штучний інтелект. Проте Apple не продає його таким чином, вони просто представляють його як одну з функцій доступності.
Недавно Apple Music запустив два радіоканали, зокрема один називається "Discover" і я випробував його протягом останніх кількох днів і отримую дуже точні рекомендації. Це безперечно покращує те, що ми мали досі, і працює, як мінімум, на рівні Spotify. Немає сумнівів у тому, що штучний інтелект має багато спільного з тим, що нам подобається практично кожна пісня, яка з'являється.
Останні роки ми все більше увагу приділяємо психічному здоров'ю, що раніше не отримувало такої уваги. Apple також не поступається, і в iOS 17 вони представили функцію, яка також використовує штучний інтелект для реєстрації нашого стану кожен день.

Одне з найприємніших змін у цій версії iOS 17 без сумнівів - це клавіатура. Вона набагато краще передбачає, що ми хочемо написати, робить кращі пропозиції, не нудить постійно вносити одну і ту саму корекцію, і майже миттєво адаптується до нас. Це ще один приклад того, що Apple робить з штучним інтелектом, навіть коли ми про це не знаємо. Насправді, їхні чіпи мають власний нейромережевий процесор, призначений спеціально для цих завдань.
Apple вийшла з-під струменя галузі

Здається, підхід, який вони використовують в Купертіно відрізняється від підходу інших компаній. Більшість презентує свої досягнення у галузі штучного інтелекту як самий штучний інтелект по суті. Тобто, штучний інтелект є самою метою їх розробки. Однак Apple вважає, що вони можуть робити багато позитивних речей за допомогою штучного інтелекту, тому вони його використовують, але не називають його прямо.
Наприклад, вони використовують ШІ для того, щоб сам iPhone бу обчислював середній час ранку, коли ми прокидаємося, щоб припинити заряджатися на 80% і поновити зарядку, щоб в момент використання було 100% і він не пошкодився. Те ж саме стосується й оптимізації для додатків, які ми маємо відкритими в фоновому режимі. Штучний інтелект є практично скрізь на нашому iPhone, але ми просто використовуємо його в повсякденному житті і не звертаємо на це увагу.
Варто зазначити, що штучний інтелект продовжуватиме розвиватися, і Apple продовжуватиме інтегрувати його в екосистему поступово. Космічний обчислювальний потік, який ми побачили під час презентації Apple Vision Pro, - це ще один приклад, а про Apple Car і не говоримо, вона буде повністю автономною.
Я все ще вважаю, що є щось дуже потужне, що вони приховують і що стане хітом, але на даний момент такий підхід до створення операційної системи навколо штучного інтелекту, а не штучного інтелекту для операційної системи, мені здається найбільш відповідним.