Всего два часа — и вы создадите слои своего двойника.
- Новое исследование обучило модели искусственного интеллекта на ответах, полученные в ходе расследования двухчасовое интервью
- 85
- В последующих исследованиях вместо людей можно будет использовать агентов
Вы можете думать, что ваша личность уникальна, но для создания копии с вашими взглядами и поведением достаточно двухчасового интервью для модели II. Гугл ДипМайнд.
Что такое исследование агентов?
Агенты определения источника в статье как генеративные модели искусственного интеллекта которые могут точно имитировать поведение человека «в различных социальных сетях, журналах или информационных контекстах».
В ходе 1052 участников было предложено провести двухчасовое интервью, которое охватывало широкий спектр тем: от их личной истории жизни до взглядов на современные социальные проблемы. Их ответы записывались, а скрипты использовались для обучения генеративных моделей ИИ — или «агентов рассмотрения» — для каждого человека.
Чтобы проверить, насколько хорошо эти агенты могли имитировать своих коллег-человеков, Обоими было предложено заполнить ряд заданий, включая личностные тесты и игры участники попросили воспроизвести свои собственные ответы две недели спустя агенты ИИ смогли имитировать ответы с 85% по сравнению с участниками-людьми.
Более того, исследования агентов были столь же эффективны, когда их просили предсказать черты личности в пяти экспериментах по техническим наукам.
это относительно небольшое количество информации, собирая качественные ответы на фиксированный набор вопросов. Снабженные фантастические данные, модели ИИ могут убедительно имитировать вашу личность – в конце концов в меньшей мере, в контролируемой ситуации, основанной на проверке соблюдения правил более опасными.
Двойной агент
Исследованием руководил Джун Сон Пак, аспирант Стэнфорда Идея создания этих наука больше свободы при проведении исследований реальные люди, на которых они основаны, ученые могут проводить исследования без затрат на привлечение людей тысячи каждый раз.
Вокруг вас можно построить кучу маленьких «вас», которые фактически принимают для меня решения, которые принять бы вы.
Джун Сон Пак, аспирант Стэнфорда
Они также могли проводить эксперименты, которые были бы неэтичными с участием собственные люди В интервью MIT Technology Review. Школе имя Слоуна в Массачусетском технологическом институте, сказал, что в статье используется способ «использования отдельных людей для создания персонажей, которые затем можно использовать программно/в методах моделирования, которые нельзя было бы использовать с реальными людьми».
Одно дело, удобно ли это с моральной точки зрения для участников исследования больше беспокоит возможность того, что представление агентов станет чем-то более гнусным в В той же статье MIT Technology Review. «вас», вокруг и фактически принимающих решения, которые были бы приняты вами».
Для многих это вызывает антиутопический звонок проблемы безопасности, конфиденциальности и кражи личных данных воображению, чтобы предвидеть мир, в котором мошенники, которые уже используют ИИ для Имитация голосов близких может создавать дипфейки личностей, чтобы имитировать людей в сети.
Это особенно тревожно, если принять во внимание, что агенты моделирования ИИ были созданы в ходе проведения использование всего двухчасового интервью кому в настоящее время нужна такая компания, как Тавус, которая рисует цифровые близнецов на основе кладезя остались данные.