База знань
Цей розділ пропонує підбірку актуальних матеріалів і досліджень про використання штучного інтелекту в медіа і не тільки.
New York Times goes all-in on internal AI tools
У матеріалі New York Times йдеться про впровадження внутрішніх ШІ-інструментів для редакційного та продуктового персоналу. Видання створило власний інструмент Echo для резюмування текстів та схвалила використання GitHub Copilot, Google Vertex AI, NotebookLM, Amazon AI і OpenAI API. Журналісти можуть використовувати ШІ для генерації SEO-заголовків, постів у соціальних мережах, запитань для інтерв'ю, аналізу документів і створення промо.
Висвітлення збройних конфліктів у добу цифрових технологій: як журналісти використовують ШІ, OSINT та інноваційні інструменти
Українська медійниця Катерина Тесленко описує цифрові інструменти висвітлення воєнних конфліктів. Ці технології стають важливими для збереження достовірності матеріалів та захисту журналістів і їхніх джерел в епоху гібридних воєн.
The EU’s new AI code of practice has its critics but will be valuable for global governance
У матеріалі Chatham House проаналізований Кодекс практики ЄС для штучного інтелекту загального призначення, розроблений у межах найкомплекснішого світового Акту про ШІ ЄС. Кодекс є набором необов'язкових рекомендацій для компаній на зразок OpenAI та DeepMind щодо прозорості, авторського права й безпеки, але процес його створення викликав гостру критику: громадянське суспільство звинуватило розробників у привілейованому доступі для американських техногігантів, а віцепрезидент США Джей Ді Венс назвав європейське регулювання таким, що «душить» інновації. Автори статті стверджують, що попри суперечки та глобальний тренд відходу від жорсткого регулювання, правила ЄС матимуть значний світовий вплив і надаватимуть цінні уроки для глобального управління ШІ.
10 AI dangers and risks and how to manage them
У матеріалі IBM проаналізовані 10 основних небезпек штучного інтелекту і стратегії управління цими ризиками. Автор пояснює, що хоча ШІ має величезну цінність у медицині, екології та інших сферах, він також несе потенційні загрози: упередженість алгоритмів, кіберзагрози, порушення конфіденційності даних, шкоду довкіллю, втрату робочих місць, проблеми з інтелектуальною власністю, відсутність прозорості та підзвітності, а також поширення дезінформації. До кожного ризику наведені конкретні рекомендації щодо пом'якшення небезпек, включаючи впровадження етичних практик, навчання персоналу тощо.
Challenging Systematic Prejudices
У дослідженні International Research Centre on Artificial Intelligence під егідою UNESCO йдеться про проблему стереотипізації всередині великих мовних моделей, таких як GPT-3.5 та GPT-2 від OpenAI, а також Llama 2 від Meta. Автори надають докази упередженості проти жінок у контенті, згенерованому кожною з цих LLM.
How Generative AI Is Changing Creative Work
У матеріалі Harvard Business Review йдеться про те, як генеративний ШІ змінює креативну роботу в бізнесі. Частина тексту написана самим GPT-3, демонструючи можливості технології. Автори пояснюють, що ці величезні мовні моделі потребують мільйонів доларів для навчання, але людина залишається критично важливою для створення якісних промптів і редагування результатів. У статті описані конкретні застосування в маркетингу, програмуванні, чатботах та управлінні корпоративними знаннями. Однак виникають проблеми через те, що дипфейки стають доступними всім. Не зрозуміло, хто володіє авторськими правами на ШІ-контент, а системи відтворюють упередження, закладені у даних, на яких вони вчились.
The Politics of Using AI in Public Policy: Experimental Evidence
У цій науковій статті йдеться про експеримент, під час якого вчені перевіряли, як люди формують свою думку про використання штучного інтелекту в державних рішеннях. Понад 1500 американців виконували оплачувані завдання на онлайн-платформі, де їх випадково розподіляли під керівництво або алгоритму, або людини-роботодавця, а потім відстежували зміни в їхніх поглядах. Дослідники виявили цікаву річ: хоча особистий досвід роботи з ШІ-босом впливав на поведінку людей на роботі, він зовсім не змінював їхню думку, чи варто використовувати ШІ у державній політиці. Натомість люди змінювали свої погляди, коли отримували нову інформацію про переваги чи ризики штучного інтелекту. При чому навіть ті, хто спочатку був скептично налаштований, ставали прихильнішими після позитивної інформації.
AI in Business Efficiency
Звіт міжнародної компанії McKinsey, що працює у сфері менеджмент-консалтингу, про вплив ШІ на ефективність бізнес-процесів. У звіті йдеться про те, як компанії застосовують алгоритми для автоматизації рутинних завдань, аналізу даних, прогнозування продажів і оптимізації ресурсів. Автори наголошують на стратегічному значенні ШІ для конкурентоспроможності та довгострокового розвитку компаній.
What is AI ethics?
Стаття SAP про концепцію етики штучного інтелекту. Основні принципи етичного ШІ включають прозорість, справедливість, захист приватності, підзвітність і надійність. SAP рекомендує впровадження етичних політик, різноманітність команд розробників, регулярний аудит систем, навчання персоналу та прозору комунікацію з користувачами.
AI Incident Database (AIID) — збір інцидентів застосування ШІ
Відкрита база, де зібрані випадки неправильного або небезпечного застосування ШІ у світі. Використовується для навчання, щоб уникати повторення помилок.
AI for Good
Ініціатива ООН, присвячена використанню штучного інтелекту для суспільного блага. На платформі зібрані приклади застосування ШІ у медицині, боротьбі зі змінами клімату, освіті та гуманітарних проєктах. Це міжнародна база знань, яка демонструє, як технології можуть працювати не лише на бізнес, а й на глобальні цілі сталого розвитку.
Ця платформа створена у межах проєкту «Зміцнення незалежних медіа для сильної демократичної України», що реалізується DW Akademie у співпраці з Львівським медіафорумом та Суспільним Мовленням за фінансової підтримки Європейського Союзу. Ми також реалізуємо цей проєкт за підтримки IMS (International Media Support).