Франция, Ирландия и Германия обсуждают запрет ChatGPT в целях защиты персональных данных

Италия недавно запретила использование чат-бота с искусственным интеллектом ChatGPT, что побудило Францию, Ирландию и Германию к обсуждению возможности принятия аналогичных мер в целях защиты конфиденциальности. ChatGPT, разработанный компанией OpenAI, стал известен своей способностью генерировать эссе, стихи и диалоги используя краткие вводные данные. Однако итальянские регуляторы заявили, что у этого инструмента нет должной юридической основы для сбора массивов данных, а также поставили под сомнение методы обработки информации. В результате европейские власти, включая Францию, Ирландию и Германию, обратились к итальянским коллегам с целью разработать общую позицию относительно ChatGPT. Кроме того, канадские органы, отвечающие за регулирование данных, также начали расследование в отношении OpenAI.

Запрет ChatGPT в Италии

Италия приняла решение 1 апреля 2023 года запретить использование ChatGPT из-за сомнений в конфиденциальности персональных данных. Официально заявлено, что у OpenAI нет законных оснований для массового сбора данных, а также вызывают сомнения способы обработки информации, собранной инструментом.

Ответ Франции

CNIL, влиятельный регулятор данных во Франции, получил две жалобы относительно ChatGPT. Первая жалоба поступила от группы лоббистов под названием Janus International, а вторая была подана разработчиком по имени Дэвид Либо. Зои Вилен из Janus International заявила, что ChatGPT не запросил ее согласия при регистрации учетной записи. Либо утверждал, что при использовании ChatGPT для получения информации о себе инструмент выдавал полностью ложные данные. В настоящее время CNIL не объявил о запуске полного расследования, но следует отметить, что этот регулятор данных является одним из самых влиятельных в Европе.

Проблемы в Ирландии и Германии

Также стоит отметить, что регуляторы данных в Ирландии и Германии обратились к своему итальянскому коллеге с целью более глубокого понимания влияния ChatGPT. Они, подобно CNIL, выражают беспокойство по поводу возможных нарушений конфиденциальности и стремятся сформировать общую позицию относительно данного инструмента. Это свидетельствует о том, что проблемы, связанные с использованием ChatGPT и его воздействием на конфиденциальность данных, привлекают внимание не только во Франции, но и в других европейских странах, таких как Ирландия и Германия.

Обучение и возможности ChatGPT. Как работает ChatGPT

ChatGPT — это искусственный интеллект, представляющий собой чат-бота, который способен генерировать разговоры, эссе и стихи, исходя из коротких подсказок. Этот инструмент обучается на большом объеме текстовых данных, собранных из Интернета, чтобы имитировать человеческие ответы. ChatGPT способен адаптироваться под различные стили и жанры, включая технические, юмористические или формальные. Это позволяет ChatGPT генерировать тексты, соответствующие требуемым контексту и стилю, в зависимости от предоставленных подсказок и указаний.

ChatGPT получил негативные отзывы из-за своих «галлюцинаций» или тенденции брать ответы “с потолка”. OpenAI утверждает, что эта проблема реже встречается в GPT-4, последней версии этого инструмента.

Растущие опасения по поводу регулирования AI. Канадское расследование OpenAI

OpenAI столкнулась с расследованием со стороны канадского регулятора данных после запрета использования ChatGPT в Италии. Канадский орган, вероятно, обеспокоен отсутствием законодательных норм и надлежащей защиты конфиденциальности при использовании инструментов искусственного интеллекта.

Возникают призывы к прекращению разработки мощных систем искусственного интеллекта

В прошлом месяце сотни экспертов, включая генерального директора Tesla Илона Маска, призвали к остановке разработки мощных систем искусственного интеллекта. Появление GPT-4 стало одной из причин этого призыва. Предлагаемый мораторий предполагает запрет на разработку языковых моделей искусственного интеллекта, превосходящих OpenAI GPT-4.

Хотя технология искусственного интеллекта предлагает множество преимуществ, она также вызывает опасения относительно конфиденциальности, защиты данных и возможного неправомерного использования мощных систем. Регулирующие органы и участники отрасли должны сотрудничать, чтобы разработать этические и прозрачные рамки для искусственного интеллекта, которые позволят нам продолжать развивать его.

Не забудьте подписаться на наш Телеграмм канал!