Как развиваются нейросети, и в чем их опасность - Московский часовой
17:05 10.02.2023

Как развиваются нейросети, и в чем их опасность

Для работы и развития ChatGPT необходимы огромные объёмы информации.
Как развиваются нейросети, и в чем их опасность

В последние несколько лет активно развиваются искусственные нейросети (ИНС), они помогают в учебе, в медицине, в разработке и даже в творческих задачах. За основу создания нейросетей взят человеческий мозг, а именно принцип взаимодействия нейронов между собой.

Нейросети используются везде: в камерах видеонаблюдения, в фото и видеоредакторах, в программах по обработке текста, в поисковиках и так далее. ИНС давно внедряется в привычную жизнь, помогая людям в повседневных делах.

Очередная волна активных обсуждений нейросетей началась после запуска чат-бота ChatGPT.

ChatGPT — это языковая модель, которая представляет собой высокоразвитый чат-бот, способный понимать естественный язык и генерировать ответы, подобные человеческим.

Чат-бот от OpenAI запустили в конце ноябре 2022 года. Он стал первым многозадачным ИИ, который доступен любому пользователю. Этот чат-бот может вести диалоги, отвечать на вопросы искать ошибки в коде, сочинять стихи, писать сценарии и даже спорить.

За первые 5 дней работы ChatGPT набрал больше 1 млн пользователей. Сейчас количество пользователей чат-бота достигает 100 млн. Это делает его самым быстрорастущим потребительским сервисом всех времён. Эксперты обсуждают преимущества и опасности нейросети, многие говорят, что внедрение подобного рода технологий может оставить людей без работы.

Недавно стало известно, что выпускник РГГУ защитил диплом, полностью написанный нейросетью. Сначала чат-бот сгенерировал план ВКР, а потом по нему написал работу. Интересно, что работу приняли и поставили оценку "удовлетворительно". Как отмечает сам студент, диплом действительно получился хорошим, хоть в нем и присутствовали некоторые логические ошибки и иногда несвязность мысли.

По словам специалиста по кибербезопасности Андрея Масаловича, у ChatGPT есть несколько сторон. С одной, это хорошая возможность облегчить работу тем же студентам. Чат-бот способен написать уникальный текст, который также подстроится под стиль автора. Но для науки такого рода инструменты могут быть опасными, так как ChatGPT оперирует тем, что видит и находит в сети. В отличие от человека нейросеть не может думать логически и анализировать свои ошибки самостоятельно.

О конфиденциальности

Для работы и развития ChatGPT необходимы огромные объёмы информации. Чем больше данных есть в их распоряжении, тем лучше они обнаруживают закономерности, предвидят возможные варианты развития диалога и генерируют правдоподобный текст.

Компания OpenAI предоставила чат-боту около 300 миллиардов слов из открытого доступа в Интернете, в том числе из книг, соцсетей, веб-сайтов и так далее. Но никого из пользователей интернета не спросили, может ли OpenAI использовать эти данные.

Даже если информация находится в общем доступе, их использование нейросетью может нарушить так называемую "текстовую целостность". Этот принцип предполагает, что информация отдельных лиц не должна раскрываться вне контекста, в котором она была первоначально создана.

Также, если попросить нейросеть написать текст какой-либо книги, которая нелегально присутствует в открытом доступе, она действительно может выдать этот текст. Несмотря на то, что книга платная и официально доступна только в интернет-магазинах.

Так как ChatGPT используют любую полученную информацию для обучения, то есть риск нарушения конфиденциальности данных, которые пользователи предоставляют боту в процессе общения с ним.

Поэтому риски конфиденциальности, связанные с ChatGPT, должны звучать как предупреждение. Каждый день растет количество технологий, используемых ИИ, и пользователи должны быть предельно осторожны в отношении того, какой информацией делятся в Интернете.

Фото: piqsels