Етичні проблеми GitHub Copilot
Автор: soxobeh877 • Декабрь 10, 2022 • Эссе • 910 Слов (4 Страниц) • 156 Просмотры
Харківський національний університет радіоелектроніки
(61166, Харків, пр. Науки,14, каф. БІТ, тел. (057) 702-14-25)
У статті окреслюється коло проблем, з якими людина зіткнулася під час перших спроб створення штучного інтелекту, здатного тією чи іншою мірою ухвалювати самостійні рішення. Порушується питання про етичні обмеження, які можуть бути закладені в штучні інтелектуальні системи під час програмування. Далі наголошується, що це саме по собі ще не може вважатися етикою штучного інтелекту, оскільки для того, щоб розв'язувати етичні задачі, треба мати свободу волі. Етика безпосередньо починається тоді, коли з'являється здатність реагувати на власні помилки, здійснювати рефлексію поведінки, враховуючи при цьому думки інших людей. Така сама принципова можливість помилки має бути закладена і в роботу штучного інтелекту, щоб можна було говорити про його етику у власному сенсі слова. Мають бути також виконані умови комунікації машин, їхніх взаємних оцінок і наявності в них феноменального досвіду.
Ключові слова: штучний інтелект, етика, помилка, авторське право, код.
The article outlines the range of problems that man faced during the first attempts to create artificial intelligence capable of making independent decisions to some extent. The question of ethical limitations that can be built into artificial intelligent systems during programming is raised. It is further noted that this in itself cannot yet be considered the ethics of artificial intelligence, since in order to solve ethical problems, one must have free will. Ethics directly begins when there is an ability to respond to own mistakes, to reflect on behavior, taking into account the opinions of other people. The same fundamental possibility of error should be built into the work of artificial intelligence, so that we can talk about its ethics in its own sense. The conditions of communication between machines, their mutual evaluations and the presence of phenomenal experience in them must also be met.
Keywords: artificial intelligence, ethics, error, copyright, code.
ШІ, який може завершити код, не є чимось новим. Багато розробників використовують подібні інструменти, такі як Tabnine і Kite. Але Copilot відрізняється від них через компанію, яка розвиває проєкт. На GitHub розміщені архіви 73 млн розробників: це неймовірний обсяг інформації, на якій може тренуватися Copilot. Об'єднайте це з охопленням Microsoft і просунутими дослідженнями ШІ OpenAI, і ви приречені на успіх.
Команди OpenAI і GitHub добре знайомі з проблемами і технічними особливостями розробки, через що їм легше було оцінювати Copilot у процесі його створення.
Мета полягає в тому, щоб замінити рутинну частину програмування. Замість того, щоб йти в Stack Overflow, Quora або Google, щоб знайти базове рішення для коду, можна використовувати Copilot, і він сам запропонує його. Ви натискаєте tab, щоб прийняти його, або продовжуєте друкувати, щоб проігнорувати його. [1]
В соціальній мережі Twitter користувач з нікнеймом DocSparse опублікував пост [2], в якому вказує, що інструмент у новому проєкті згенерував ідентичний фрагмент вихідного коду з іншого проєкту (зі встановленою опцією "не використовувати публічний код"), опублікованого під ліцензією LGPL.
Така поведінка створює системну правову проблему, оскільки може порушувати чинні політики компанії (багато хто забороняє ліцензії GPL, CDDL, MPL) і створити колізії сумісності ліцензій, що використовуються в проєкті (деякі ліцензії не сумісні в одному проєкті), які можуть бути надалі виявлені занадто пізно.
Автогенерований
...