Етика

У цьому розділі зібрані ключові етичні протоколи, гайди та правила щодо використання інструментів штучного інтелекту, створені державними й освітніми інституціями, аналітичними центрами та технологічними компаніями.

Як Українська правда буде використовувати штучний інтелект

Редакційний документ, який описує те, як «Українська правда» досліджує потенціал генеративних інструментів штучного інтелекту, зокрема генераторів тексту, зображень і голосу, щоб розширити свої редакційні можливості.

Корпоративний
читати далі

Thomson Reuters Foundation — Three steps to an AI-ready newsroom: A practical guide

Практичний посібник для новинних редакцій із розробки власних політик використання штучного інтелекту. Документ надає шаблони та рекомендації для створення внутрішніх настанов, підкреслюючи важливість адаптації політик до специфіки кожної організації. Робить наголос на необхідності балансу між інноваціями та журналістськими стандартами, пропонуючи покрокові інструкції для редакцій різного розміру.

Міжнародний
читати далі

EU — Guidelines on the responsible implementation of artificial intelligence systems in journalism

Офіційні рекомендації, ухвалені Комітетом Ради Європи з питань медіа та інформаційного суспільства, що визначають стандарти відповідального впровадження систем ШІ у журналістиці. Вони спрямовані на використання ШІ відповідно до прав людини, демократичних принципів та свободи слова (стаття 10 Європейської конвенції).

Міжнародний
читати далі

Paris Charter on AI and Journalism

Паризька хартія, ухвалена представниками медіаспільноти в листопаді 2023 року. В документі встановлюється 10 фундаментальних принципів: від пріоритету журналістської етики та людської суб'єктності до обов'язкової прозорості використання ШІ-систем та чіткого розмежування між автентичним і синтетичним контентом. Автори наголошують, що медіа несуть повну відповідальність за весь опублікований контент незалежно від того, чи використовувався ШІ. У хартії також йдеться про економічні гарантії, справедливу компенсацію за використання журналістського контенту для тренування ШІ-моделей та прозорість походження даних, які використовуються в алгоритмах.

Міжнародний
читати далі

From Policy To Practice: Responsible media AI implementation

Стаття «Від політики до практики: відповідальна імплементація ШІ у медіа» від Digital Content Next описує кроки, які медіаорганізації можуть зробити для етичного впровадження штучного інтелекту. Вона підкреслює важливість розробки чітких політик використання ШІ, включаючи зменшення упередженості, управління ризиками, юридичну відповідність та довгострокове управління. Приклади таких політик наводяться на основі практик The New York Times, Financial Times, BBC, USA Today, The Guardian, NPR, Radio-Canada та Graham Media Group. Ключові аспекти включають прозорість у використанні ШІ, забезпечення людського нагляду, навчання персоналу та регулярні оцінки ризиків. Це допомагає зменшити ризики, захистити конфіденційність та зберегти редакційний контроль, сприяючи довірі аудиторії та зміцненню репутації бренду.

Національний
читати далі

"Рекомендації з відповідального використання штучного інтелекту у сфері медіа"

Документ «Рекомендації з відповідального використання штучного інтелекту у медіа», підготовлений Міністерством цифрової трансформації України, надає медіа практичні поради щодо етичного та безпечного застосування ШІ на всіх етапах медіавиробництва — від збору даних до створення й поширення контенту. Він наголошує на прозорості, відповідальності редакційних рішень, оцінці ризиків, захисті даних, маркуванні згенерованого ШІ контенту та забезпеченні контролю людини, а також рекомендує створення внутрішніх політик і навчання персоналу, щоб підтримувати високі етичні стандарти, захищати права людини та зміцнювати довіру аудиторії в умовах цифрових трансформацій.

Національний
читати далі

Мінцифри — Guidelines on the Responsible Use of Artificial Intelligence in the News Media

Рекомендації від Міністерства цифрової трансформації України є частиною дорожньої карти регулювання штучного інтелекту в Україні.

Національний
читати далі