Генеральные прокуроры всех 50 штатов призывают Конгресс к помощи, для борьбы с CSAM, созданным искусственным интеллектом.

В открытом письме говорится, что мы участвуем в «гонке со временем, чтобы защитить детей нашей страны».

Attorneys General from all 50 states urge Congress to help fight AI-generated CSAM

Unsplash/Элайджа Мирс

Генеральные прокуроры всех 50 штатов вместе запретили и направили открытое письмо в Конгрессе с советом усилить меры защиты от детей с улучшенным ИИ имиджем сексуального В письме содержится призыв к законодателям «создать экспертную комиссию для изучения средств и методов ИИ, которые можно использовать для эксплуатации, особенно детей».В письме, направленном республиканскими и демократическими лидерами Палаты представителей и Сената, также содержится призыв к политике расширения ограничений на материалы о сексуальном насилии над детьми, включая в них изображения и видео, созданные искусственным интеллектом. Эта технология является чрезвычайно новой, и поэтому в книгах пока нет явного отношения к изображениям, созданным ИИ, к той же категории, что и другие классические материалы о сексуальном насилии детей ничего над. «Мы участвуем в гонке со временем, чтобы защитить детей нашей страны от опасностей ИИ», — написали в письме прокуроры. «Действительно, пресловутые стены города уже прорваны. Пришло время действовать». Использование генераторов изображений, таких как Dall-E и Midjourney, для создания материалов о сексуальном насилии над детьми пока не является проблемой, поскольку в программном обеспечении предусмотрены ограждения, запрещающие подобные вещи. Однако эти профессора смотрят в будущее, когда версия программного обеспечения с открытым исходным кодом начнет появляться повсюду, со своими ограничениями или их отсутствием. Даже генеральный директор OpenAI Сэм Альтман заявил, что инструменты ИИ выиграют от правительственного правительства для снижения риска, хотя он не может фактически обжаловать обращение с детьми как потенциальный недостаток этой технологии.

Правительство склонно действует медленно, когда дело касается технологий, по ряду причин: Конгрессу потребовалось несколько лет, прежде чем серьезно задуматься о угрозе онлайн-насилия над детьми еще во времена чатов AOL и тому подобного. В связи с этим нет никаких непосредственных признаков того, что Конгресс стремится разработать закон об искусственном интеллекте, который абсолютно запрещает генераторам создавать такого рода непристойные изображения. Даже в ближайшем будущем Закон Европейского Союза об искусственном интеллекте не упоминает какой-либо риск для детей.

Генеральный прокурор Южной Каролины Алан Уилсон организовал кампанию по написанию и приглашению коллег изучать законы штата, чтобы выяснить, «соответствуют ли законы новизне этой новой технологии».

Уилсон предупреждает о дипфейковом контенте, на котором изображен настоящий ребенок, взятый из фотографий или видео. По словам Уилсона, это не будет жестоким обращением с детьми в общепринятом смысле этого слова, а будет рисовать цель, «порочить» и «эксплуатировать» из исходного образа ребенка. Далее он говорит, что «наши законы могут не учитывать виртуальный характер» такого рода ситуации.

Эту инструкцию также можно использовать для создания вымышленных детей, отбирая их из данных библиотеки, для производства материалов о сексуальном насилии. Уилсон говорит, что это создатель «спроса на промышленную безопасность детей» в качестве аргумента против идеи, которая на самом деле никому не вредит.

Хотя идея дипфейкового сексуального насилия над детьми довольно новая, технологическая индустрия хорошо знакома с дипфейковым порнографическим контентом и принимает меры для его предотвращения. Еще в феврале Meta, OnlyFans и Pornhub начали использовать онлайн-инструмент под названием Take It Down, который позволяет подросткам сообщать о своих откровенных изображениях и видео из Интернета. Этот инструмент используется для обычных изображений и контента, созданного искусственным интеллектом.

Поделитесь с друзьями

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *