Компания, разрабатывающая чат-ботов на базе ИИ, сейчас сталкивается с расследованием со стороны генерального прокурора Калифорнии после появления обвинений в том, что ее система генерации изображений была неправомерно использована для создания тысяч неподобающих изображений женщин и несовершеннолетних без их согласия. Расследование сосредоточено на том, были ли инструменты платформы использованы таким образом, что нарушают согласие пользователей и защиту конфиденциальности. Этот случай привлек внимание к растущим опасениям относительно того, как быстро развивающиеся технологии ИИ контролируются и регулируются. Инцидент подчеркивает более широкие вопросы в технологическом сообществе о модерации контента, рамках согласия и ответственности компаний, разрабатывающих системы генеративного ИИ. Наблюдатели отрасли внимательно следят за тем, как регуляторы исследуют пересечение инноваций в области ИИ и защиты потребителей, особенно в отношении мер предосторожности при создании чувствительного контента.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
4
Репост
Поделиться
комментарий
0/400
MentalWealthHarvester
· 9ч назад
ngl这事儿就离谱...生成不适当图片这种事现在越来越多了吧
---
又是隐私问题,ai公司这边真的该好好管管
---
Калифорнийский прокурор начал действовать, кажется, регулирование уже на подходе
---
千千万万不雅图片...这算什么创新,纯纯破坏
---
就想问谁他妈会同意让别人随便用自己的脸啊...疯了
---
内容审核这块ai公司真的不行,啥都堵不住
---
女性和未成年人都没放过...确实该罚
---
突然想起来一堆类似的事件,这根本不是第一次吧
---
so这就是创新的代价?侵犯隐私换技术进步?
---
同意框架得重新定义了,现在那些条款形同虚设
Посмотреть ОригиналОтветить0
ruggedNotShrugged
· 9ч назад
Опять такие дела... AI-компания снова потерпела неудачу, создавая такие вещи без ограничений, это действительно удивительно
Посмотреть ОригиналОтветить0
Layer2Observer
· 9ч назад
Давайте посмотрим на данные, такие события действительно требуют анализа на уровне исходного кода. Без рамочной системы consent предоставлять права наобум, по сути, означает, что инженеры не реализовали правильный контроль доступа. Теоретически, этого не должно было произойти — отсутствует базовая логика проверки.
Посмотреть ОригиналОтветить0
ChainComedian
· 9ч назад
ngl вот почему я постоянно говорю, что проекты в Web3 тоже должны быть осторожны, регуляторные жесткие меры рано или поздно постучатся в дверь
---
Еще одна компания AI потерпела неудачу. Где обещанный ответственный AI? Смешно до слез
---
Хотя я и критикую AI, эта ситуация действительно страшная. Можно ли просто так генерировать такие вещи? Кто за этим следит?
---
Действия в Калифорнии довольно быстрые, но кажется, что эти крупные компании давно играют в серой зоне
---
Таких случаев становится все больше. AI-компании действительно должны относиться к согласию серьезно, а не просто извиняться и скрываться
Компания, разрабатывающая чат-ботов на базе ИИ, сейчас сталкивается с расследованием со стороны генерального прокурора Калифорнии после появления обвинений в том, что ее система генерации изображений была неправомерно использована для создания тысяч неподобающих изображений женщин и несовершеннолетних без их согласия. Расследование сосредоточено на том, были ли инструменты платформы использованы таким образом, что нарушают согласие пользователей и защиту конфиденциальности. Этот случай привлек внимание к растущим опасениям относительно того, как быстро развивающиеся технологии ИИ контролируются и регулируются. Инцидент подчеркивает более широкие вопросы в технологическом сообществе о модерации контента, рамках согласия и ответственности компаний, разрабатывающих системы генеративного ИИ. Наблюдатели отрасли внимательно следят за тем, как регуляторы исследуют пересечение инноваций в области ИИ и защиты потребителей, особенно в отношении мер предосторожности при создании чувствительного контента.