Вам нравится использовать ChatGPT для разработки вашего приложения? Возможно, вы захотите подумать еще раз.

В последние годы большие языковые модели (LLM) получили значительные инвестиции. Огромные объемы ресурсов направляются на постоянно растущие вычислительные мощности. Что кажется остановкой для этих моделей, так это доступный текст в мире! Однако тут и начались проблемы с законом. В этой статье мы рассмотрим краткую проблему, которая омрачает распространение этих больших языковых моделей. Если вам нравится ChatGPT и вы хотите использовать его для разработки своего следующего приложения? Возможно, вы захотите подумать об этом еще раз.

Интеллектуальная собственность

Мы все участвовали в создании контента через Интернет. Означает ли это, что мы дали разрешение на добычу и использование для получения прибыли этими компаниями? Мы сырье. Кому тогда принадлежат интеллектуальная собственность и авторские права?

Поскольку модели генерируют текст, они могут создавать контент, похожий или идентичный существующим произведениям, защищенным авторским правом. В связи с этим возникают вопросы о том, могут ли сами модели или создавшие их организации нести ответственность за нарушение авторских прав. Будет забавно привлечь модель к ответственности за нарушение авторских прав! но это законный аргумент. Кроме того, неясно, можно ли считать сгенерированный текст «производным произведением» и будут ли какие-либо права на него у первоначального правообладателя. И помните, мы все являемся владельцами авторских прав OG на эти данные!

Подотчетность, ответственность и ответственность

Это все веселье и игры, пока кто-нибудь не пострадает. Тогда кто несет ответственность и кто несет ответственность за причиненный им вред? Это модель, корпорация, создавшая модель, или разработчик, разработавший приложение с использованием этой модели?



Этот вопрос становится все более и более реалистичным по мере того, как большие языковые модели становятся все более совершенными. Их можно использовать для принятия важных решений, таких как диагностика заболеваний или одобрение кредитов. Уже есть достаточно доказательств того, что ИИ действительно навредил людям. Таким образом, если модель сделает ошибку, неясно, кто будет нести ответственность за ошибку. Кроме того, если модель генерирует оскорбительный или клеветнический текст, неясно, кто будет нести ответственность за причиненный вред.

Конфиденциальность и защита данных

Кто-нибудь из нас помнит, как давал согласие на использование наших данных для обучения большой языковой модели? Кто-нибудь из нас нашел какую-то информацию о нас настолько личную, но случайно оказавшуюся в архивах Интернета? Большие языковые модели вызывают опасения по поводу конфиденциальности и защиты данных.



Поскольку модели обучаются на больших объемах данных, они могут непреднамеренно собирать и обрабатывать личную информацию. Это поднимает вопросы о том, как данные собираются, хранятся и используются, а также о том, имеют ли люди право знать и контролировать, как используется их информация. Google внедрил политику «забудь меня через 90 дней» в отношении данных для отдельных лиц, но действительно ли мы думаем, что каждый бит информации в Интернете не является личным? Есть целая ветвь хакерства под названием социальная инженерия! Вероятно, один из самых простых из-за слабости человеческого разума в определенные уязвимые моменты. Мы все совершали ошибки, которые могут быть небольшими, но могут быть значительными, и нет реального контроля над тем, как эта информация собирается, хранится и обрабатывается. Можете ли вы доверять ответу, который эти модели однажды могут выдать, что в нем не будет дословной информации о вас?

Поверьте мне! прозрачность и объяснимость

Еще один юридический вопрос – это вопрос прозрачности и объяснимости. Поскольку большие языковые модели считаются черным ящиком, трудно понять, как они пришли к своему результату. Потребуется приложить огромные усилия к чувствительности модели к различным входным данным, чтобы начать анализ того, как входные данные могут повлиять на выходные данные. Можно с уверенностью сказать, что эти модели никогда не будут полностью поняты. Это затрудняет обеспечение того, чтобы модели принимали этичные и справедливые решения, а также затрудняет отладку и улучшение моделей. Это может создать проблему, когда речь идет о юридических вопросах, связанных с подотчетностью, ответственностью и ответственностью.

Антитрестовский закон

Кроме того, большие языковые модели могут вызывать опасения по поводу законов о конкуренции и антимонопольного законодательства. Поскольку модели требуют значительных вычислительных ресурсов для обучения и запуска, их разработка и поддержка могут быть дорогими. Это может ограничить их доступность для небольших организаций или отдельных лиц, что может привести к концентрации власти в руках нескольких крупных компаний или организаций. Ну, если у всех нас нет лишних 200 миллионов долларов! мы все могли бы создать свой собственный LLM. Это может вызвать опасения по поводу законов о конкуренции и антимонопольного законодательства, а также относительно того, нарушаются ли они.

Особенно теперь, когда так называемый OpenAI с открытым исходным кодом внезапно решил сменить тон и начать взимать деньги за премиальные услуги, опасения по поводу нескольких новых моделей, таких как PaLM от Google и CICERO от мета, могут в конечном итоге оказаться единственными моделями, которые принадлежат и управляется этими гигантскими организациями. Кроме того, я говорил, что мы все генерируем эти данные? Какую ценность люди получают от этих моделей?

Свобода слова и цензура

Наконец, большие языковые модели могут вызвать проблемы, связанные со свободой слова и цензурой. Возьмем гипотетически несколько компаний или разработчиков программного обеспечения, у которых достаточно средств и навыков для разработки приложений, использующих эти модели для разработки контента. Они начали публиковать это в блогах, новостях и так далее. Поскольку модели способны генерировать широкий спектр контента, могут возникнуть опасения по поводу того, следует ли ограничивать или блокировать определенные типы контента.

Принесли ли эти модели вред традиционным писателям, лишив их средств к существованию? или путем их вытеснения или разбавления их доли? Google начал демо-контент от AI-ботов (ссылка1, ссылка2, ссылка3). Однако они не видны на странице обнаружения спама (ссылка).

Другая проблема заключается в том, что большая часть текста, генерируемого в Интернете, написана на английском языке и в основном создается западным миром. Разрешение ИИ генерировать текст, представляющий определенную часть мира, еще больше увеличивает неравенство. Это поднимает сложные юридические и этические вопросы о том, какие виды высказываний следует защищать, какие следует ограничивать и кто должен нести ответственность за принятие этих решений.



Заключение

Правовые вопросы использования LLM еще какое-то время будут оставаться в подвешенном состоянии. Зная уровень знаний наших законодателей (или их отсутствие), любопытство (или его отсутствие) и способность расставлять приоритеты в деликатных общественных вопросах (или их отсутствие), а не подшучивать и спорить о том, кто может уничтожить планету больше всего в кратчайшие сроки. времени! У меня нет большой надежды. Но будет интересно посмотреть, как будут развиваться события в следующем десятилетии или около того, и как изменится правовой ландшафт, чтобы приспособиться к технологическим достижениям.

Чтобы поддержать меня 🔔 хлопать| Подписаться | Подписаться🔔

Стать участником по моей ссылке: https://ithinkbot.com/membership

Посмотреть другие мои работы —Ознакомиться с другими моими работами —