Можем ли мы полностью доверять ИИ? Нет, но мы можем его контролировать

robot
Генерация тезисов в процессе

Мы любим машины. Мы следуем нашей навигационной системе, чтобы добраться до мест, и тщательно оцениваем рекомендации по путешествиям, ресторанам и потенциальным партнерам на всю жизнь, используя различные приложения и веб-сайты, так как мы знаем, что алгоритмы могут выявлять возможности, которые нам могут понравиться, лучше, чем мы когда-либо сможем. Но когда дело касается окончательных решений о здоровье, нашей работе или наших детях, например, вы бы доверили и поручили ИИ действовать от вашего имени? Наверное, нет.

Вот почему мы (FP) разговариваем с Кавьей Пёрлман (KP), основателем и генеральным директором XRSI, группы X-Reality Safety Intelligence, которую она собрала, чтобы решить и смягчить риски в взаимодействии между людьми и экспоненциальными технологиями. Она, конечно же, находится на Западном побережье США. Это наш обмен.

FP. Что происходит с появлением ИИ?

КП. На протяжении многих лет технологические компании нормализовали идею о том, что мы должны отказаться от нашего самого ценного актива, наших данных, в обмен на цифровое удобство. Мы всегда нажимаем «принять», никогда не задавая вопросов. Теперь, с ростом носимых устройств и 𝐀𝐈-𝐢𝐧𝐭𝐞𝐠𝐫𝐚𝐭𝐞𝐝 𝐬𝐲𝐬𝐭𝐞𝐦𝐬, ставки стали гораздо выше. Дело больше не только в истории браузера или данных о местоположении. Компании собирают информацию о наших телах и разумах, от сердечных ритмов и 𝐛𝐫𝐚𝐢𝐧 𝐚𝐜𝐭𝐢𝐯𝐢𝐭𝐲 до 𝐞𝐦𝐨𝐭𝐢𝐨𝐧𝐚𝐥 𝐬𝐭𝐚𝐭𝐞𝐬. И все же почти никто не спрашивает: 𝐇𝐨𝐰 𝐝𝐨 𝐰𝐞 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐬𝐞 𝐬𝐲𝐬𝐭𝐞𝐦𝐬 𝐰𝐢𝐭𝐡 𝐨𝐮𝐫 𝐦𝐨𝐬𝐭 𝐢𝐧𝐭𝐢𝐦𝐚𝐭𝐞 𝐝𝐚𝐭𝐚? 𝐖𝐡𝐚𝐭 𝐩𝐨𝐰𝐞𝐫 𝐝𝐨 𝐰𝐞 𝐡𝐚𝐯𝐞 𝐢𝐟 𝐰𝐞 𝐝𝐨𝐧’𝐭 𝐭𝐫𝐮𝐬𝐭 𝐭𝐡𝐞𝐦? 𝐖𝐡𝐚𝐭 𝐚𝐫𝐞 𝐭𝐡𝐞 𝐢𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫𝐬 𝐨𝐟 𝐭𝐫𝐮𝐬𝐭 𝐰𝐞 𝐬𝐡𝐨𝐮𝐥𝐝 𝐝𝐞𝐦𝐚𝐧𝐝?

Это не просто техническая проблема. Это проблема управления и в своей основе вопрос 𝐭𝐫𝐮𝐬𝐭. Без прозрачности и подотчетности ИИ рискует усилить скрытые предвзятости, подорвать доверие и оставить людей без средств правовой защиты, когда системы ошибаются. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.

ФП. Вы действительно можете создать систему, которая это делает, прозрачность и подотчетность?

Наряд на кухню. Вы можете, если хотите. Например, мы только что запустили стандарт Responsible Data Governance (RDG). Он обеспечивает конкретные ограничения для ИИ и носимых технологий, включая четкую политику в отношении того, какие данные можно и нельзя использовать, протоколы для управления результатами ИИ и обеспечения их качества, журналы объяснимости, чтобы решения не были скрыты в черном ящике, согласование с глобальными правилами для защиты людей через границы и так далее

FP. Почему компании следует принять эти стандарты?

KP. У них действительно есть стимул это делать, поскольку потребители и фанаты знают, кто серьезен, а кто нет. Организации, соответствующие стандартам, могут быть легко идентифицированы. ИИ нуждается не только в более умных моделях; ему необходимо более разумное управление. Потому что доверие не возникает автоматически. Оно зарабатывается, поддерживается и защищается через ответственное управление данными. Вопрос больше не в том, "может ли ИИ это сделать?", а в том, "можем ли мы доверять тому, как это делается?"

FP. Доверие не является автоматическим, и выгода потребителей, в соответствии с человеческими ценностями, не обязательно является целью той или иной модели. Нам нужны новые стандарты, признанные как в государственных, так и в частных предприятиях. Такие группы, как XRSI, занимаются этим. Правильное время для понимания, руководства, маркировки, измерения и т.д. — это сейчас.

Фрэнк Пагано

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить