Четверг, 31 октября, 2024
Парсер

Небезпечні технології. OpenAI більше не забороняє використання її розробок з військовою метою

Небезпечні технології. OpenAI більше не забороняє використання її розробок з військовою метою

OpenAI оновила політику щодо ChatGPT (Фото:The Japan Times)

OpenAI, компанія-розробник чат-бота зі штучним інтелектом ChatGPT, оновила свою політику, прибравши згадку про заборону на використання її технології з військовою та бойовою метою.

Відповідно до оновленої політики, OpenAI все ще забороняє використовувати свої великі мовні моделі (LLM) для будь-чого, що може завдати шкоди, і застерігає людей від використання її послуг для розробки або використання зброї. Однак компанія видалила формулювання, що стосуються «військових справ і війни», яке прямо вказувало на те, що OpenAI не може працювати з державними установами, такими як міністерства оборони.

На цей час у компанії немає продукту, який міг би когось безпосередньо вбити чи завдати фізичної шкоди, але технологію компанії можна використовувати для таких завдань, як написання коду та обробка замовлень на закупівлю речей, які можна використовувати для вбивства людей.

Представники OpenAI пояснили зміну політики своєю співпрацею з урядами, спрямованою на захист кібербезпеки.

«Наша політика не дозволяє використовувати наші інструменти, щоб завдати шкоди людям, розробити зброю, стежити за комунікаціями, поранити інших чи знищити майно. Однак існують випадки використання для національної безпеки. які відповідають нашій місії. Наприклад, ми вже працюємо з Агентством передових оборонних дослідницьких проєктів США, щоб стимулювати створення нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та галузь. Не було зрозуміло, чи дозволені були б ці варіанти використання як „військові“ відповідно до нашої попередньої політики. Тож мета нашого оновлення політики — забезпечити ясність і можливість вести ці обговорення», — зазначив представник OpenAI в коментарі Engadget.