Дурак с компьютером переводной: Игра Дурака Против Компьютера Переводной

Как обмануть компьютер оптическими иллюзиями

Технологии

Новое исследование подчеркивает различие между тем, как видит искусственный интеллект, и тем, как он знает, на что смотрит. 16 декабря 2014 г.

И компьютерные мозги стали очень, очень хороши в способности идентифицировать все виды вещей. Машины могут распознавать лица, читать почерк, интерпретировать ЭКГ и даже описывать происходящее на фотографии. Но это не значит, что компьютеры видеть все эти вещи так же, как и люди.

Это может показаться мимолетным различием. Если все — и компьютеры, и люди — могут видеть изображение льва и называть его львом, какая разница, как этот лев выглядит для человека или компьютера, обрабатывающего его? И это правда, что оказаться в одном и том же месте может быть полезнее, чем проследить, как вы туда попали. Но для хакера, надеющегося использовать автоматизированную систему, понимание того, как искусственный мозг видит, может быть способом проникнуть внутрь9. 0003

Группа ученых-компьютерщиков из Университета Вайоминга и Корнеллского университета недавно выяснила, как создать целый класс изображений, которые кажутся значимыми для компьютеров, но для человеческого глаза выглядят как телевизионные помехи или глитч-арт. «Легко создавать изображения, которые совершенно неузнаваемы для людей, но которые современные [глубокие нейронные сети] считают узнаваемыми объектами», — написали они в статье, которая в настоящее время находится на рецензировании и была опубликована на ArXiv, где ученые размещают препринты статей во время их рецензирования.

Компьютеры не только распознают сигналы в шуме, они делают это с огромной степенью уверенности. Так что пока вы видите изображения, которые выглядят так…

Изображение взято из статьи Nguyen, Yosinski, Clune

…мозг компьютера, или глубокая нейронная сеть (DNN), говорит, что он на 99 процентов уверен, что видит в этих одинаковые изображения и гориллы, и песца, и бикини, и угря, и рюкзака, и так далее.

Скриншот из статьи Nguyen, Yosinski, Clune

«В какой-то степени это оптические иллюзии для искусственного интеллекта», — сказал мне соавтор Джефф Клун через gchat. «Точно так же, как оптические иллюзии используют то, как люди видят… эти изображения раскрывают аспекты того, как видят DNN, которые также [делают] их уязвимыми для обмана. Но оптические иллюзии DNN не обманывают нас, потому что наша система зрения отличается. .»

Клун и его команда использовали алгоритм для создания случайных изображений, которые казались неузнаваемыми для людей. Поначалу, объясняет Клун, компьютер может быть не уверен в том, что он видит: «Затем он говорит: «Это ни на что не похоже, но если вы заставили меня угадать, лучшее, что я вижу, это лев». Но только 1 процент похож на льва».

«Люди могли бы вставлять сообщения, обсуждающие свободу прессы, и обходить фильтры цензуры коммунистического ИИ, делая изображение похожим на флаг коммунистической партии!»

С этого момента исследователи продолжали случайным образом изменять пиксели изображения, которые оставались неопознаваемыми для людей, пока компьютер не говорил, что может с почти полной уверенностью идентифицировать изображение как знакомый объект. И хотя человеческому глазу изображение по-прежнему казалось бы бессмысленным, оно, по словам Клуна, представляло бы платоновскую форму всего, что видит компьютер. И это ключевой момент: дело не в том, что компьютер неправильно идентифицирует изображение само по себе, а в том, что компьютер видит и думает об идентифицирующих компонентах любой данной вещи иначе — и более детально — чем человек. «Один из способов думать об этом таков», — сказал мне Клун. «Эти DNN являются поклонниками кубистического искусства. Они хотят видеть на изображении глаз, нос и рот, чтобы назвать это лицом, но им все равно, где эти вещи. Рот может быть над глазами. и слева от носа».

Но в то время как люди, щурясь на одни и те же цветовые блоки на картине Пауля Клее, могут идентифицировать разные знакомые объекты — то, что мне кажется уткой, может показаться вам кроликом — DNN будут смотреть на одно и то же, казалось бы, абстрактное изображение и выводить То же значение. «Мы попробовали именно это, и это работает», — сказал Клун о тестировании той же иллюзии на нескольких нейронных сетях. «Две разные DNN посмотрят на один и тот же телевизионный сигнал и скажут: «Ага. Определенно лев»». : Ладно, это животное. Оно большое. Он ходит на четырех ногах. У него есть хвост. У него песчаная грива — о, это лев. Контрольный список компьютерного мозга стал более точным. Вместо того, чтобы искать втяжные когти и острые зубы, искусственный интеллект оценивает львиность на уровне пикселей. Это означает, что изображение, которое выглядит как заснеженный монитор для человеческого мозга, может совершенно ясно выглядеть как большая кошка для компьютерного мозга.

Вместо того, чтобы искать выдвижные когти и острые зубы, искусственный интеллект оценивает львиность на уровне пикселей.

И поскольку эти компьютеры одинаково видят иллюзии, это имеет серьезные последствия для цифровой безопасности, наблюдения и даже человеческого общения. «Например, поиск изображений Google автоматически отфильтровывает изображения с рейтингом X», — сказал Клун. «Используя технику, которую мы описываем, сомнительная компания может создавать изображения, которые выглядят как кролики с помощью фильтров искусственного интеллекта Google, но на самом деле содержат наготу или другие незаконные изображения».

С людьми в странах, где правительства ограничивают свободу слова и публикации, граждане теоретически могут общаться тайно, используя непрозрачность внутри глубоких нейронных сетей. Клун: «Люди могли бы вставлять сообщения, обсуждающие свободу прессы, и проходить через фильтры цензуры коммунистического ИИ, делая изображение похожим на флаг коммунистической партии!»

Даже когда компьютеры можно обучить тому, что то, что они видят, не является, с точки зрения человека, тем, что, по мнению компьютера, он видит, — легко переучить компьютер снова и снова обманываться, что, для теперь делает такие сети уязвимыми для хакеров. Понимание таких возможностей для эксплуатации будет иметь решающее значение, поскольку искусственный интеллект становится все более распространенным.

Тем временем Клун говорит, что результаты его команды выявили ограниченность человеческого зрения. «Эта работа заставила меня еще глубже задуматься о том, как мы видим», — сказал он. «Сосредотачиваюсь ли я только на низкоуровневых деталях только иногда? Только на высокоуровневой структуре и игнорирую детали?»

Помимо упражнений в перспективе, большие перспективы глубоких нейронных сетей, по словам Клуна, поразительны. «Они уже изменили и изменят — сильнее, чем вы можете себе представить, — изменить ход истории человечества».

Может ли компьютер обмануть вас, заставив думать, что он человек?

  • Опубликовано

Источник изображения, Getty Images

от Tim Harford

, 50 вещей, которые сделали современную экономику

Роберт Эпстейн. Год 2006, он искал в Интернете.

Как он рассказал в журнале Scientific American Mind, он начал многообещающую переписку по электронной почте с симпатичной брюнеткой из России.

Эпштейн был разочарован — он хотел большего, чем просто друга по переписке, если быть откровенным, — но она была теплой и дружелюбной. Вскоре она призналась, что влюбилась в него.

«Я испытываю к тебе особые чувства. Так же, как прекрасный цветок, распустившийся в моей душе… Я только не могу объяснить… Я буду ждать твоего ответа, скрестив пальцы…»

Переписка процветала, но ему потребовалось много времени, чтобы заметить, что Ивана никогда не отвечала прямо на его вопросы.

Источник изображения, Дэн Тейлор

Подпись к изображению,

Роберт Эпштейн был одним из основателей премии Лебнера. он понравился.

Подозрительно, но в конце концов он отправил Иване строчку чистой тарабарщины. Она ответила еще одним электронным письмом о своей матери.

Наконец-то Эпштейн понял правду: Ивана была чат-ботом.

Удивляет эту историю не то, что русскому чат-боту удалось обмануть одинокого калифорнийца средних лет.

Дело в том, что человек, которого обманули, был одним из основателей премии Лёбнера, ежегодного испытания искусственного диалога, в котором компьютеры пытаются обмануть людей, заставив их думать, что они тоже люди.

Другими словами, один из лучших мировых экспертов по чат-ботам потратил два месяца, пытаясь соблазнить компьютерную программу.

50 вещей, которые создали современную экономику, посвящены изобретениям, идеям и инновациям, которые помогли создать экономический мир.

Транслируется Всемирной службой Би-би-си. Вы можете найти больше информации об источниках программы и прослушать все выпуски онлайн или подписаться на подкаст программы.

Каждый год Премия Лёбнера предлагает чат-ботам пройти тест Тьюринга, предложенный в 1950 году британским математиком, дешифровальщиком и пионером компьютерных технологий Аланом Тьюрингом.

В «имитационной игре» Тьюринга судья общался через телесуфлер с человеком и компьютером. Задача компьютера заключалась в том, чтобы достаточно убедительно имитировать человеческий разговор, чтобы убедить судью.

Источник изображения, Science Photo Library

Подпись к изображению,

Алан Тьюринг был одним из первых, кто задумался над тем, могут ли машины «думать»

Тьюринг считал, что через 50 лет компьютеры смогут обмануть 30% судей пять минут разговора.

Он был не за горами. На самом деле это заняло 64 года, хотя эксперты продолжают спорить о том, действительно ли считается «Юджин Густман» — компьютерная программа, прошедшая тест Тьюринга в 2014 году.

Источник изображения, Владимир Веселов

Как и Ивана, Густман оправдала ожидания, заявив, что не является носителем английского языка. Он сказал, что ему 13 лет, он из Одессы на Украине.

Один из первых и самых известных ранних чат-ботов, Элиза, не прошел бы тест Тьюринга, но с помощью всего нескольких строк кода успешно имитировал человека, работающего с ненаправленным терапевтом.

Названный в честь Элизы Дулиттл, неземной героини романа Джорджа Бернарда Шоу «Пигмалион», она — это? — был запрограммирован в середине 1960-е годы Джозефа Вайценбаума.

Источник изображения, Getty Images

Подпись к изображению,

Джозеф Вейценбаум считается одним из отцов современного искусственного интеллекта заставил тебя прийти сюда». Если вы упомянули, что чувствуете гнев, Элиза может спросить: «Как вы думаете, приход сюда поможет вам не злиться?». Или она может просто сказать: «Пожалуйста, продолжайте».

Людей не заботило, что Элиза не была человеком: они казались довольными тем, что кто-то слушает их без осуждения или пытается переспать с ними.

Секретарша Вайценбаума, как известно, попросила его покинуть комнату, чтобы поговорить с Элизой наедине.

Другие вещи, которые сделали современную экономику:

  • Должны ли мы не любить кнопку «Нравится»?
  • Порнография по-прежнему управляет интернетом?
  • Ажиотаж или надежда? Насколько важен блокчейн?
  • Как клавиатура qwerty стала такой популярной?

Психотерапевты были очарованы.

Современная статья в «Журнале нервных и психических заболеваний» размышляла о том, что «компьютерная система может обрабатывать несколько сотен пациентов в час». Наблюдая за армией ботов, терапевт-человек был бы гораздо эффективнее.

И действительно, когнитивно-поведенческая терапия теперь проводится с помощью чат-ботов, таких как Woebot, разработанных клиническим психологом Элисон Дарси. Нет никаких претензий, что они люди.

Сам Вейценбаум был в ужасе от мысли, что люди согласятся на такую ​​жалкую замену человеческому взаимодействию. Но, подобно доктору Франкенштейну Мэри Шелли, он создал что-то вне его контроля.

В настоящее время чат-боты распространены повсеместно и обрабатывают растущее число жалоб и запросов.

Babylon Health — это чат-бот, который расспрашивает людей об их симптомах и решает, следует ли им направить их к врачу.

Источник изображения, Вавилон

Подпись к изображению,

Программное обеспечение искусственного интеллекта предоставляет наиболее вероятные диагнозы.

Амелия общается напрямую с клиентами некоторых банков, но используется американской компанией Allstate Insurance для работники колл-центра, которых они используют при общении с клиентами.

А программы с голосовым управлением, такие как Alexa от Amazon, Siri от Apple и Assistant от Google, интерпретируют наши запросы и отвечают на них с простой целью избавить нас от неуклюжего тыкания в крошечные экраны.

Брайан Кристиан, автор книги «Самый человечный человек» о тесте Тьюринга, отмечает, что большинство современных чат-ботов даже не пытаются его пройти.

Есть исключения: чат-боты в стиле Иваны использовались Ashley Madison, веб-сайтом, созданным для облегчения внебрачных связей, чтобы скрыть тот факт, что этим сайтом пользуется очень мало женщин.

Источник изображения, Reuters

Подпись к изображению,

Компания Ashley Madison начала использовать чат-боты, когда ее системы были взломаны в 2015 году.

Еще одна тактика — нас накрутить. Чат-бот MGonz обманывает людей, начиная обмен оскорблениями. Политика — возможно, наиболее печально известная предвыборная кампания в США 2016 года — хорошо приправлена ​​чат-ботами в социальных сетях, которые притворяются возмущенными гражданами, лгут в Твиттере и оскорбляют мемы.

Но, как правило, чат-боты рады представить себя чат-ботами. Выглядеть человеком тяжело.

Коммерческие боты по большей части игнорировали эту проблему и вместо этого специализируются на выполнении небольших задач — решении простых задач и передаче сложных дел реальному человеку.

Экономист Адам Смит объяснил в конце 1700-х годов, что производительность строится на процессе разделения труда на мелкие специализированные задачи. Современные чат-боты работают по тому же принципу.

Эта логика приводит современных экономистов к утверждению, что автоматизация меняет рабочие места, а не уничтожает их. Работа разбита на задачи. Компьютеры берут на себя рутинные задачи, а люди обеспечивают креативность и адаптивность.

Источник изображения, Steven Weyhrich/Apple2History

Подпись к изображению,

VisiCalc, первая компьютерная программа для работы с электронными таблицами, произвела революцию в профессии бухгалтера киоск.

Чат-боты дают нам еще один пример.

Но мы должны опасаться риска того, что как потребители или производители — и, возможно, даже как обычные граждане — мы искажаем себя, чтобы соответствовать компьютерам.

Мы пользуемся кассой самообслуживания, хотя общение с продавцом может поднять нам настроение.

Мы публикуем обновления статуса — или просто нажимаем на эмодзи — которые фильтруются алгоритмами социальных сетей; как и в случае с Элизой, мы довольствуемся ощущением, что кто-то слушает.

Кристиан утверждает, что мы, люди, должны рассматривать это как вызов, чтобы улучшить нашу игру. Пусть компьютеры займут колл-центры. Разве это не лучше, чем заставить робота из плоти и крови придерживаться сценария, расстраивая всех участников?

Мы могли бы надеяться, что вместо того, чтобы пытаться или не суметь одурачить людей, более совершенные чат-боты сэкономят время для всех, освобождая нас для более осмысленного общения друг с другом по-настоящему.

Автор ведет колонку «Экономист под прикрытием» в Financial Times.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *