Етика
У цьому розділі зібрані ключові етичні протоколи, гайди та правила щодо використання інструментів штучного інтелекту, створені державними й освітніми інституціями, аналітичними центрами та технологічними компаніями.
Google — Model Cards / AI principles (корпоративні практики)
Google Model Cards — набір формалізованих документів, які надають чіткий огляд того, як був розроблений і оцінений конкретний алгоритм або модель штучного інтелекту. Вони містять дані про призначення моделі, її версію, архітектуру, дані, на яких її навчали, метрики якості й обмеження, а також умови, у яких модель може працювати краще чи гірше. Основна мета таких карток — забезпечити прозорість, відповідальність і кращу інформованість користувачів, розробників і регуляторів щодо сильних та слабких сторін моделі, можливих ризиків і обставин, в яких її варто або не варто застосовувати.
Anthrop\c — Usage policy
Документ від Anthropic — американської компанії зі штучного інтелекту, яка розробила Claude. У ньому компанія окреслила дозволені та заборонені способи використання Claude. Anthropic забороняє використання сервісу для політичних кампаній, лобіювання, втручання у вибори, створення дезінформації, розробки зброї, шкідливих кібероперацій, а також генерації насильницького, шахрайського чи іншого шкідливого контенту
OpenAI — Usage & safety policies (product policies)
Це набір правил, які визначають, як можна і як не можна застосовувати продукти OpenAI. Мета — запобігти зловживанням.
The University of Alabama — Guidelines for Appropriate Use of AI Generated Media
Політика University of Alabama щодо етичного і безпечного використання ШІ в комунікаціях та медіапроєктах.
"PRSA — The Ethical Use of AI For Public Relations Practitioners"
Документ, створений Public Relations Society of America, є практичною адаптацією професійного Кодексу етики. У документі йдеться про те, як традиційні етичні принципи PR застосовуються до нових ШІ-інструментів типу ChatGPT та аналітичних платформ. PRSA надає практичні рекомендації для кожного сценарію використання ШІ, наголошуючи, що PR-фахівці мають бути «етичною совістю» організацій під час впровадження технологій ШІ.
Ofcom’s strategic approach to AI 2024/25
У документі Ofcom — регулятора телекомунікацій, онлайн-безпеки, мовлення та інших комунікаційних послуг у Великій Британії — йдеться про виклики та можливості, пов'язані зі штучним інтелектом. Головна мета — використати переваги ШІ, одночасно пом'якшуючи ризики відповідно до підходу британського уряду, що підтримує інновації, та п'яти принципів регулювання ШІ (безпека, прозорість, справедливість, підзвітність, оскарження рішень).
Політика використання штучного інтелекту на сайті «Вчися.Медіа» та в соцмережах видання
Політика «Вчися.Медіа» описує, як видаання використовує ШІ для розшифрування аудіо, створення субтитрів та перекладу текстів. За правилами жоден редакційний матеріал не може бути згенерованим ШІ.
Політика використання штучного інтелекту (ШІ, AI) на сайті Online.ua та пов’язаних сервісах
Політика використання ШІ на сайті Online.ua регламентує застосування штучного інтелекту для транскрибації відео, часткового рерайту текстів, створення заголовків, описів та SEO-блоків. Редакція каже, що дотримується рекомендацій Міністерства цифрової трансформації України та принципів журналістської етики
Рекомендації Комісії з журналістської етики щодо використання штучного інтелекту
Рекомендації Комісії з журналістської етики щодо використання штучного інтелекту для створення журналістських матеріалів, опубліковані 31 жовтня 2023 року, надають українським медіа орієнтири для етичного застосування генеративних моделей ШІ, таких як ChatGPT, Bard та Bing. Комісія наголошує на необхідності інтеграції політики використання ШІ в редакційну практику. Нагадує, що відповідальність за матеріал залишається за автором та редакцією, навіть якщо ШІ використовувався на етапі підготовки. Особливу увагу приділили обмеженням ШІ, таким як відсутність здатності до критичного мислення, перевірки фактів та уникання упереджень. Рекомендації також включають вимогу до медіа повідомляти аудиторії про використання ШІ у створенні контенту, зокрема через відповідні дисклеймери, та обережність у застосуванні ШІ для генерації зображень, заголовків чи відео, щоб уникнути маніпуляцій та збереження журналістських стандартів.
CAI — Huderia metodology
У документі Комітет Ради Європи з питань штучного інтелекту описана методологія HUDERIA (Human Rights, Democracy and Rule of Law Impact Assessment) для оцінки ризиків та впливу систем штучного інтелекту з точки зору прав людини, демократії та верховенства права.
Ця платформа створена у межах проєкту «Зміцнення незалежних медіа для сильної демократичної України», що реалізується DW Akademie у співпраці з Львівським медіафорумом та Суспільним Мовленням за фінансової підтримки Європейського Союзу. Ми також реалізуємо цей проєкт за підтримки IMS (International Media Support).