Українська Служба

ІТ: Штучний інтелект на зламі століть

08.08.2024 21:00
Тема штучного інтелекту щодня набирає обертів в засобах масової інформації. Ще кілька років тому складно собі було уявити, що якась система відмінна від людини може створювати твори мистецтва. Аж ось раптово проте не так вже й непередбачувано АІ чи ШІ стає частиною нашого життя і про нього говорять всі від наймолодших до найстарших.  Як в гаслі українського дитячого видавництво «А-БА-БА-ГА-ЛА-МА-ГА» від 2 до 102. Це й не дивно, оскільки передбачувано технологію такої алгоритмічної оптимізації намагаються припасувати до всіх можливих сфер людського життя з меншими чи більшими успіхами
Аудіо
  • Штучний інтелект на зламі століть
Ілюстративне зображенняMyroslav Trofymuk

Як жартома висловився один мій знайомий власнк ІТ фірми, на моє застереження, що в планах було якось так, щоб машини займалися складною роботою, не дарма ж до речі, слова робот і робота спільнокореневі, а в 21-му столітті ми отримали світ, в якому роботи, схоже стають творцями, а люди продовжують виконувати важку працю. Мій приятель віджартувався на це, що схоже розробники почали з того, що простіше. 

Звісно ж це зла іронія, Проте, якщо заглянути глибше в цю думку, можна відчитати цю фразу по-різному, до прикладу можна повернутися в минуле століття і подумати про постать Віктора Глушкова. Українського науковця, піонера кібернетики Віктора Глушкова, який ще в союзі розробив ідеї автоматизації складних галузей роботи і перш за все хотів тоді систематизувати документообіг, проте навіть в такому, здавалося, б інноваційному, зовсім віддаленому від націоналістичних, чи інших і лапках шкідливих ідей, рішенні союз побачив певну небезпеку і тримав руки вченого зв язаними.

Тож виявляється генерувати автоматичні зображення ймовірно справді рішення яке втілити простіше, ніж систематизація документообігу, особливо, коли держава має що приховувати.

Зрештою, з ШІ справа така, що основні ідеї були розроблені і теоретично закріплені ще в середині минулого століття, проте не вистачало обчислювальних потужностей, щоб втілити їх в життя, тож сама ідея ШІ насправді, стара, як плівковий фотоапарат, чи двигун внутрішнього згоряння, яким ми ще десь цілком вдало користуємося.

А якщо подумати, людський мозок така ж собі нейромережа, яка на основі побаченого генерує випадкові образи і тут в справу входить етична складова. Чому мистецтво створене людиною має неоціненну вартість, чи є безцінним, тоді, як генеративи ШІ пізнаються відразу і не викликають в нас особливих переживань та емоцій.

Все це філософські питання, вирішення яких ще висить перед нами, а тим часом, генеративний контент заполонює наш інфопростір і впливає на нашу перцепцію світу, реальності та правди.

Нещодавно мені трапився в тік-току профіль Тома Круза, який знімав дуже цікаві смішні домашні відео. Я абсолютно не відразу усвідомив, що це діпфейк акаунт круза, в якому до зображення іншої особи догенерували обличчя Круза, а що коли такі зображення 

Проте так званий Generative AI генеративний штучний інтелект, або ж генеративний алгоритм можна викориcтовувати для менш невинних справ, нещодавно Польщу як грім з неба прострілила інформація про певні порнографічні глибинні фейки (deepfake), які робили школярі, використовуючи зображення своїх однокласниць, що в результаті грозить для них не лише дисциплінарними покараннями, але цілком ймовірно може коштувати кількох років життя за гратами, оскільки створення таких deepfak’ів вважається кримінальним правопорушенням у Польщі, а Сполучені Штати Америки боряться із цією проблемою вже кілька років, ще в 2019 році опитування вказали на те, що 96 процентів генерованого контенту це так звані non-consensual intimate imagery інтимні зображення, виконані без згоди. 

Жертвою такого насильства стала американська конгресвумен Александрія Окасіо-Кортес — американська політична і громадська активістка, членкиня Демократичної партії. В інтервю Lorena O'Neil на порталі Ролінгстоун, конгресвумен розповідає про те, що коли вона вперше побачила зображення яке відображало сексуальну сцену, в її свідомості це відчулося так, наче з нею справді відбулися всі ті дії. З психологічної точки зору такі зображення фактично є актом сексуального насильства і сприймаються цілком реально.

CNN 25 липня опублікувало статтю із закликом звертатися зі своїми історіями, заповнювати опитувальник стосовно себе та своїх дітей, які могли стати жертвами таких дій, виглядає, що світ серйозно береться за юридичне врегулювання генеративного контенту.

І тут не говоримо вже про контекст авторського права на генерований контекнт, що все ще залишається сірою зоною. 

Особисто я бавився із програмами,я кі генерують музику і дуже часто у вокалах згенерованих системою можна почути інтонації відомих вокалістів чи то української, чи світової сцени.

Інший гіпотетичний етичний концепт став реальністю у Сіетлі, Безсонні в Сіетлі колись був такий фільм з Мег Раян і Томом Генкоом, так от тут все навпаки, 28 річний мотоцикліст став жертвою Тесли с, яка перебувала в режимі автопілота, так званого Full Self-Driving, який дослівно перекладається, як повністю автономний режим водіння, проте заарештували наразі 56-річного водія, який перебуваючи за кермом дивився в телефон, а не на дорогу. В компанії Маска кажуть, що повністю автономний режим водіння потребує, все ж активної участі водія і його уваги та не вважається справді автономним.

Тож поки перший закон робототехніки залишаємо в фантастичних книжках. 

А що ж там з термінатором. Тесла продовжує робити хайп на роботах-гуманоїдах, то тут то там вигулькують зображення Маска, який будує собі дружину робота, але всі вони виявляються тими ж таки генерованими АІ-зображеннями, про тому, що розробки роботів гуманоїдів Тесла таки веде.

Проте ризики з боку штучного інтелекту таки реальні і про них запитує Katharine Da Costa з BBC News, а стосуються ці ризики Національної служби охорони здоровя Британії.

Штучний інтелект у Британії планують використовувати в системі охорони здоров'я, від виявлення факторів ризику, щоб допомогти запобігти хронічним захворюванням, таким як інфаркти, інсульти та діабет, до допомоги клініцистам шляхом аналізу сканів і рентгенівських знімків для прискорення процесу діагностики.

Технологія також максимізує продуктивність, виконуючи звичайні адміністративні завдання від автоматизованих голосових помічників до планування зустрічей і запису приміток лікарів.

Доктор Керолайн Грін з Інституту етики штучного інтелекту Оксфордського університету знає, що деякі медичні працівники використовують такі моделі, як ChatGPT, для пошуку порад.

«Важливо, щоб люди, які використовують ці інструменти, пройшли відповідну підготовку, тобто вони розуміли та знали, як пом’якшити ризики, пов’язані з технологічними обмеженнями... наприклад, можливість надання неправильної інформації», каже вона.

В статті йдеться про те, що клієнти відписуються від сімейних лікарів, переживаючи за те, що їхня особиста інформація може потрапити в чужі руки, чи що їм буде призначене невідповідне лікування. Отже люди відмовляються від лікарів, щоб бути здоровими. Можна так перефразувати цей каламбур. 

Проте британці не спішать відмовлятися від ідеї впровадження ШІ в медичну систему і скоріше говорять про його контроль з участю відповідних операторів, тобто людей, які спостерігатимуть за достовірністю результатів, а Агентство з регулювання лікарських засобів і товарів медичного призначення (MHRA) розробляє відповідні вказівки.

Все частіше звучить термін Responsible AI - відповідальний ШІ.

В той же час на BBC business читаємо в статті Clare Duffy: «Це лише вівторок, але можна сказати, що це був важкий тиждень для всіх технологічних компаній. Так звана «Чудової сімки» здешевіла на 615,6 мільярда доларів».

Що таке чудова сімка?

У світі фінансів цей термін, який стосується фільму про супергероїв, використовують для позначення групи із семи високоефективних і впливових акцій компаній у технологічному секторі. Аналітик з Bank of America Майкл Гартнет ввів цю фразу в 2023 році, називаючи сім компаній, які загальновизнані своїм домінуванням на ринку, своїм технологічним впливом і впливом на поведінку споживачів: Це Alphabet (GOOGLE), Amazon, Apple, Meta Platforms, Microsoft, NVIDIA і Tesla.

Говорячи коротко, Інвестори вимагають відповідей, коли ШІ почне давати прибутки і побоюються, що вся ця історія з АІ може виявитися черговою схемою, чи просто недієздатною мильною бульбашкою. А тут ще й антимонопольний комітет Штатів має претензії до GOOGLE, який наближається до позначки 90% ринку пошукових послуг. 

Останніх 18 місяців повітря було насичене хайпом довкола ШІ і тепер виникає запитання, що залишиться, коли курява осяде. Здається великі технічні ковбої ховають свої револьвери до штанів і почнуть думати про виплати інвесторам.

Деякі інвестори навіть передбачали, що це буде квартал, коли технологічні гіганти почнуть сигналізувати про те, що вони відмовляються від інвестицій у інфраструктуру штучного інтелекту, оскільки «ШІ не приносить прибутку, якого вони очікували», — Про це CNN заявив аналітик Гіл Лурія.

«Сталося навпаки — Google, Microsoft і Meta дали зрозуміти, що планують витрачати ще більше, закладаючи основу для того, що, як вони сподіваються, буде ШІ-майбутнім. Meta заявила, що зараз очікує, що капітальні витрати за весь рік становитимуть від 37 до 40 мільярдів доларів, підвищуючи нижню межу прогнозу на 2 мільярди доларів. Корпорація Майкрософт заявила, що планує витратити в 2025 фінансовому році більше, ніж її 56 мільярдів доларів на капітальні витрати з 2024 року. Google прогнозує капітальні витрати «на рівні або понад 12 мільярдів доларів за кожен квартал цього року. І технічні лідери сказали, що їм потрібно більше часу — набагато більше часу».

Що ж, як говорив Глушков: Якщо суспільству потрібен Штучний інтелект, то це питання буде вирішене. Потрібен був час, щоб ці слова стали пророцтвом. Визначальним фактором для людства завжди був і буде час. Зрештою, в нас його вдосталь, чи може ні. Думаю, це одне з тих питань, яке варто задати Chat’ові GPT.

В найсвіжіших технологічних перепетіях у світі пробував розбиратися Мирослав Трофимук.


Побач більше на цю тему: технології штучний інтелект