in

Безопасно ли использовать Chat GPT?

Безопасно ли использовать Chat GPT

В последнее время много шумихи вокруг компаний, запрещающих своим сотрудникам пользоваться Chat GPT и другими решениями генеративного ИИ на рабочем месте. Как сообщает Forbes, JP Morgan, одно из крупнейших в мире банковских учреждений, наложил запрет на использование Chat GPT сотрудниками. JPMorgan Chase ограничивает использование ChatGPT сотрудниками.

Хотя мы не считаем, что использование Chat GPT опасно по своей сути, вот несколько лучших практик и ключевых соображений для защиты себя и данных ваших клиентов и заказчиков.

Знаете ли вы, куда уходят ваши данные?

Самая большая проблема с данными при использовании Chat GPT заключается в том, что все, что вы вводите в подсказку чата, хранится в памяти, и вы как конечный пользователь не знаете, что с ним происходит.

OpenAI раскрыла информацию о том, что данные разговора собираются и используются для дальнейшего обучения модели ИИ, на которой работает Chat GPT. Неясно, как много данных анонимизируется и даже как конкретные данные хранятся в самой языковой модели. Это может вызвать множество вопросов, таких как GPDR или право на забвение, которые еще предстоит решить.

Аналогичная ситуация возникает, когда вы вводите что-то в Google или Bing Search. Вы не знаете, что компания делает с данными после их ввода. Google и поисковые системы в целом зарабатывают большую часть своих денег на доходах от рекламы. Чем больше данных они могут собрать о своих пользователях, тем лучше они нацеливают рекламу и зарабатывают больше денег. У них есть стимул отслеживать информацию, которую вы вводите.

Так ли безопасен Chat GPT, как поиск в Google?

Как большая языковая модель (LLM) Chat GPT требует огромного количества информации для обучения. Большой объем данных также делает платформу настолько полезной. Она может отвечать на вопросы по любым темам — от компьютерного программирования до краткого изложения классических романов.

Разница между классическим поиском Google и Chat GPT заключается в том, что многие люди загружают в Chat GPT целые абзацы или страницы информации, которые они не стали бы загружать в Google.

Природа Поиска Google ограничивает количество данных, которые он может непосредственно собирать, потому что большинство людей используют сервис для поиска ответов на вопросы или для поиска информации.

Информация, которую собирает Chat GPT, отличается от информации Google

Многие из интересных вариантов использования Chat GPT связаны с созданием контента. Например, вы можете скопировать длинное письмо от клиента и вставить его в Chat GPT, чтобы он составил для вас ответ. Экономия времени при генерации электронной корреспонденции может быть огромной, но если это письмо содержит конфиденциальную информацию, оно может попасть в черный ящик, управляемый OpenAI.

К их чести, OpenAI, похоже, пытается поступать правильно и, похоже, осознает необходимость ответственного использования ИИ. Нас вселяет оптимизм то, что они также осознают ответственность и тяжесть работы с большими объемами потенциально конфиденциальных данных. В конце концов, организацией по-прежнему управляют люди, которые заинтересованы в прибыли и могут допустить ошибку в суждениях.

Масштабы и типы данных Chat GPT беспрецедентны

Неизбежно, что все больше и больше людей будут продолжать внедрять и использовать Chat GPT в своей повседневной жизни, особенно по мере того, как он становится все более тесно интегрированным в компьютерное программное обеспечение, которым люди пользуются каждый день.

Один из наших любимых примеров — Microsoft Copilot 365. Подумайте о нем как о Clippy с искусственным интеллектом, созданном для 2020-х годов. Google работает над аналогичным решением с конкурентом Chat GPT, Bard и интегрирует его с Google Workplace и Google Docs.

С ростом уровня интеграции языковых моделей в нашу повседневную жизнь, вполне возможно, что эти службы будут вылавливать все больше и больше информации, с которой мы работаем каждый день. Письма клиенту, пациенту, написанные с помощью ИИ, могут стать обучающими данными, которые попадут в «черный ящик» ИИ.

Google и Microsoft достаточно велики для защиты данных

Конкретное число проектов, находящихся в процессе, не называется, но, скорее всего, оно исчисляется десятками тысяч. Почти любая большая или маленькая компания может развернуть решения на основе Chat GPT, Google Bard или других конкурентов.

Каждое из этих решений имеет потенциал для извлечения данных от конечного пользователя. На данный момент есть определенный уровень комфорта в том, что Google и Microsoft в настоящее время являются двумя крупнейшими поставщиками больших языковых моделей, и что они, по крайней мере, достаточно велики и имеют ресурсы для защиты ваших личных данных, если захотят.

По мере появления новых языковых моделей и созревания рынка он будет выглядеть так же, как и многие другие рынки программного обеспечения. Будет существовать высокий сегмент от крупных технологических компаний, которые будут иметь соответствующую цену. Недорогие конкуренты могут посчитать более ценным соскабливать ваши данные и продавать их, чем брать с людей деньги за услугу.

В качестве примера можно привести iPhone от Apple и Google Android. Google предоставляет свою операционную систему Android бесплатно, но взамен интегрирует Google Services в ваш телефон и собирает много данных об использовании, которые помогают им продавать рекламу. iPhone от Apple — это коммерческий продукт, где прибыль генерируется за счет продажи физического продукта.

В настоящее время Microsoft взимает плату за доступ к API OpenAI Chat GPT через Azure Cognitive Services в зависимости от использования. Мы полагаем, что Google будет следовать аналогичной модели ценообразования для Google Bard.

Что входит в лицензионное соглашение с конечным пользователем (EULA)?

Поскольку Chat GPT и подобные технологии интегрированы в такие решения, как Microsoft Word и Google Docs, вполне вероятно, что они будут защищать себя от использования информации, которую вы вводите в их продукты. Даже если бы вы захотели прочитать соглашение и нашли пункт, в котором они это делают, вряд ли вам удалось бы избежать этого.

Многие из этих продуктов являются фундаментальными для ежедневной работы и жизни сотен миллионов людей вне работы. Google разрешал сторонним компаниям доступ к данным Gmail вплоть до 2018 года.

Google по-прежнему позволяет сторонним приложениям сканировать данные Gmail

Безопасно ли использовать Chat GPT и другие языковые модели ИИ?
Да, в большинстве случаев использование Chat GPT безопасно. При его использовании следует помнить, что вы не знаете, куда попадут данные, которые вы вводите. Это то же самое, что вводить информацию в Google, Bing или другие онлайн-сервисы.

Люди не должны бояться безопасности данных настолько, чтобы не воспользоваться преимуществами передовых языковых моделей с искусственным интеллектом. Chat GPT произведет революцию в том, как люди работают и живут. Так же, как это сделал персональный компьютер. Эти изменения произойдут гораздо быстрее, и людям важно понять, как воспользоваться преимуществами нового инструмента.

Люди также должны осознавать, что они вводят в модель ИИ, понимая, что с другой стороны это может быть небезопасно. Задавать общие вопросы и информационные запросы, как при поиске в Google, или поручать ему генерировать неконфиденциальные материалы — в большинстве случаев это нормально.

Частные облака и локальные модели на подходе

К счастью, для тех, кто работает в очень чувствительных средах, где безопасность является большой проблемой, в ближайшем будущем будут выпущены продукты, ориентированные на клиентов с высоким уровнем безопасности. В частности, у Microsoft есть множество предложений Azure Cloud, предназначенных для такого типа развертывания, и, вероятно, появятся продукты, ориентированные на них.

Стэнфордский университет построил свою собственную модель Chat GPT на основе технологии Meta, которая позволила им создать и обучить большую языковую модель с минимальными ресурсами.

По мере развития технологии будет появляться все больше ее экземпляров, работающих на локальном оборудовании или на централизованном сервере, который организации не придется подключать к облачному центру обработки данных. Компании получат больше возможностей для контроля над тем, кто получает доступ к данным, политиками хранения данных и управления ими.

Компания Microsoft дополнительно анонсировала облачные экземпляры Copilot 365, которые позволят приложениям Office использовать технологию Chat GPT на основе информации, хранящейся в Microsoft SharePoint и других корпоративных хранилищах данных. Вполне вероятно, что они также будут включать надежные функции управления корпоративными данными.

Заключение

Chat GPT и другие подобные решения изменят многие аспекты повседневной жизни людей. Как на рабочем месте, так и вне его. Люди должны стремиться понять технологию и начать использовать ее как можно чаще.

Кибербезопасность и управление данными — вполне обоснованные опасения. Людям, работающим с конфиденциальными данными, возможно, придется подождать, пока индустрия языковых моделей ИИ немного созреет, чтобы действительно воспользоваться преимуществами Chat GPT. К счастью, отрасль развивается очень быстро, и людям не придется долго ждать, чтобы внедрить более безопасные решения.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *