В последние несколько лет активно развиваются искусственные нейросети (ИНС), они помогают в учебе, в медицине, в разработке и даже в творческих задачах. За основу создания нейросетей взят человеческий мозг, а именно принцип взаимодействия нейронов между собой.
Нейросети используются везде: в камерах видеонаблюдения, в фото и видеоредакторах, в программах по обработке текста, в поисковиках и так далее. ИНС давно внедряется в привычную жизнь, помогая людям в повседневных делах.
Очередная волна активных обсуждений нейросетей началась после запуска чат-бота ChatGPT.
ChatGPT — это языковая модель, которая представляет собой высокоразвитый чат-бот, способный понимать естественный язык и генерировать ответы, подобные человеческим.
Чат-бот от OpenAI запустили в конце ноябре 2022 года. Он стал первым многозадачным ИИ, который доступен любому пользователю. Этот чат-бот может вести диалоги, отвечать на вопросы искать ошибки в коде, сочинять стихи, писать сценарии и даже спорить.
За первые 5 дней работы ChatGPT набрал больше 1 млн пользователей. Сейчас количество пользователей чат-бота достигает 100 млн. Это делает его самым быстрорастущим потребительским сервисом всех времён. Эксперты обсуждают преимущества и опасности нейросети, многие говорят, что внедрение подобного рода технологий может оставить людей без работы.
Недавно стало известно, что выпускник РГГУ защитил диплом, полностью написанный нейросетью. Сначала чат-бот сгенерировал план ВКР, а потом по нему написал работу. Интересно, что работу приняли и поставили оценку "удовлетворительно". Как отмечает сам студент, диплом действительно получился хорошим, хоть в нем и присутствовали некоторые логические ошибки и иногда несвязность мысли.
По словам специалиста по кибербезопасности Андрея Масаловича, у ChatGPT есть несколько сторон. С одной, это хорошая возможность облегчить работу тем же студентам. Чат-бот способен написать уникальный текст, который также подстроится под стиль автора. Но для науки такого рода инструменты могут быть опасными, так как ChatGPT оперирует тем, что видит и находит в сети. В отличие от человека нейросеть не может думать логически и анализировать свои ошибки самостоятельно.
Для работы и развития ChatGPT необходимы огромные объёмы информации. Чем больше данных есть в их распоряжении, тем лучше они обнаруживают закономерности, предвидят возможные варианты развития диалога и генерируют правдоподобный текст.
Компания OpenAI предоставила чат-боту около 300 миллиардов слов из открытого доступа в Интернете, в том числе из книг, соцсетей, веб-сайтов и так далее. Но никого из пользователей интернета не спросили, может ли OpenAI использовать эти данные.
Даже если информация находится в общем доступе, их использование нейросетью может нарушить так называемую "текстовую целостность". Этот принцип предполагает, что информация отдельных лиц не должна раскрываться вне контекста, в котором она была первоначально создана.
Также, если попросить нейросеть написать текст какой-либо книги, которая нелегально присутствует в открытом доступе, она действительно может выдать этот текст. Несмотря на то, что книга платная и официально доступна только в интернет-магазинах.
Так как ChatGPT используют любую полученную информацию для обучения, то есть риск нарушения конфиденциальности данных, которые пользователи предоставляют боту в процессе общения с ним.
Поэтому риски конфиденциальности, связанные с ChatGPT, должны звучать как предупреждение. Каждый день растет количество технологий, используемых ИИ, и пользователи должны быть предельно осторожны в отношении того, какой информацией делятся в Интернете.
Фото: piqsels