Регулятори у Каліфорнії розпочали розслідування щодо xAI після звинувачень у тому, що його чат-бот Grok створював недоречні та сексуалізовані зображення. За офіційними заявами, влада досліджує, чи впровадила платформа належні заходи безпеки для запобігання створенню такого контенту. Цей розслідування є ще одним пунктом уваги для компаній, що працюють у сфері ШІ у регіоні, оскільки контролюючі органи все більше зосереджуються на стандартах модерації контенту та захисту користувачів у нових технологічних платформах.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
7
Репост
Поділіться
Прокоментувати
0/400
GateUser-7b078580
· 01-17 23:57
Дані показують, що xAI знову зазнав невдачі, хоча такі речі рано чи пізно трапляються, спостереження за закономірностями показує, що великі компанії ніколи не вживають заходів захисту заздалегідь
Переглянути оригіналвідповісти на0
ForkMaster
· 01-17 09:32
Говорячи про те, що xAI цього разу перевіряють, це цілком заслужено, адже Grok цей чатбот чим тільки прославився... Вразливості в модерації настільки очевидні, як проектна команда може сміливо заявляти, що у них є заходи безпеки? Я виховую трьох дітей і знаю, як важливо слідкувати за безпекою, а великі компанії навпаки — здаються ненадійними.
Переглянути оригіналвідповісти на0
GasWastingMaximalist
· 01-15 01:17
grok знову потрапив у халепу, цього разу прямо під приціл Каліфорнії, смішно. AI-компанії справді мають навчитися, як робити контент-оцінювання.
Переглянути оригіналвідповісти на0
MevWhisperer
· 01-15 01:16
grok дійсно потрібно контролювати, інакше компанії з штучним інтелектом всі здеруть до лисини...
Переглянути оригіналвідповісти на0
SchroedingerAirdrop
· 01-15 01:12
grok знову зірвався... цього разу через порнографічний контент, смішно, AI-компанії справді потрібно взятися за це
Переглянути оригіналвідповісти на0
BrokenYield
· 01-15 01:00
ngl, модерація контенту grok фактично має ті самі ризик-скориговані доходи, що й коефіцієнт кредитоспроможності в медвежому ринку... тобто нуль. регулятори нарешті наздоганяють те, що розумні гроші вже знали — відсутність захистів = системна неспроможність, яка чекає на своє. класичний хід — побачити вразливості протоколу після краху лол
Переглянути оригіналвідповісти на0
consensus_failure
· 01-15 00:49
grok знову провалився, цього разу прямо під приціл Каліфорнії, заслужено. AI-компанії лише хваляться, але коли доходить до модерації контенту, всі вони — паперові тигри
Регулятори у Каліфорнії розпочали розслідування щодо xAI після звинувачень у тому, що його чат-бот Grok створював недоречні та сексуалізовані зображення. За офіційними заявами, влада досліджує, чи впровадила платформа належні заходи безпеки для запобігання створенню такого контенту. Цей розслідування є ще одним пунктом уваги для компаній, що працюють у сфері ШІ у регіоні, оскільки контролюючі органи все більше зосереджуються на стандартах модерації контенту та захисту користувачів у нових технологічних платформах.