Translate

Поиск по сайту

понедельник, 3 января 2022 г.

Ученые в лабораториях учатся манипулировать нами, и мы не знаем точно, как?



Пытаетесь решить, что подарить брату на Рождество? Куда вложить
сбережения? Красить ли кухню в белый или желтый цвет?





Не волнуйтесь! Исследовательские институты  здесь, чтобы помочь. И это страшно.Ни для кого не секрет, что технологические гиганты собирают ( покупают , продают) огромные объемы данных о своих клиентах, а это почти все мы. Мы можем справедливо беспокоиться о том, какая часть наших личных данных находится в руках частных компаний. Но надо серьёзно задуматься о том, что именно они делают с этими данными, в том числе об использовании искусственного интеллекта (ИИ) для использования человеческих решений.


Люди довольно хорошо умеют манипулировать друг другом; Фактически ,человечество вероятно, занималось « тактическим обманом » в течение тысяч лет. Но благодаря помощи ИИ(Исследовательских Институтов,) программных систем, которые обучаются сами, люди могут быть более уязвимы для этого принуждения.

При правильном использовании искусственный интеллект может убедить вас что-то купить , поделиться постом, проголосовать за кандидата или сделать что угодно . Недавно группа исследователей из Австралийской федеральной научно-исследовательской организации Содружества научных и промышленных исследований провела серию экспериментов , изучающих, как ИИ влияет на принятие решений людьми. Результаты показали, что ИИ может обнаруживать и использовать слабые места в процессе принятия решений людьми, чтобы направлять людей к определенным решениям. «Значение этого исследования потенциально ошеломляет», - сказал в пресс-релизе Амир Дезфули, эксперт по машинному обучению в CSIRO и ведущий исследователь исследования 





Подобно тому, как хороший продавец (или очаровательный торгаш) может заставить вас сделать что-то, чего вы в противном случае не сделали бы, эти алгоритмы могут заставить вас щелкнуть, купить или поделиться; не только потому, что они так много знают о вас, но и потому, что они знают, какие методы могут заставить вас принять одно решение, а не другое.

И что самое страшное, мы не до конца понимаем, как ИИ это делает. «Сложность в том, что ИИ в некотором роде все еще является чем-то вроде черного ящика», - говорит Шейн Сондерсон, изучающий взаимодействие человека и робота в Университете Торонто. «Это не явная машина, которая говорит, что два плюс два равняется четырем. Это машина, которой вы показываете кучу данных, и она анализирует эти данные на предмет шаблонов, классификаций или идей, которые он может извлечь из них. И мы не всегда точно знаю, как он это делает ». Например, ИИ быстро выяснил, собирая и анализируя огромные объемы данных, что социальные сети гораздо более интересны, когда они играют на отрицательных эмоциях , и что люди больше реагируют и больше взаимодействуют с отрицательным контентом. непредвиденные последствия.

«Это определенно пугает», - говорит Сондерсон.

Сондерсон описывает это как классический пример « банальности зла» . «Нет ни одного неправильного призыва, который действительно заставляет  поступить неправильно», - говорит он. «Никто в Facebook не вышел и не сказал:« Да, мы хотим устроить геноцид в Мьянме »или« Мы хотим повлиять на выборы в массовом масштабе ». Это никогда не было чьими-то прямыми намерениями ". Намерение, конечно же, состояло в том, чтобы продать вам что-то - или, в случае с Facebook, чтобы вы были вовлечены на сайт, чтобы компании, покупающие рекламное место, могли продавать вам вещи. Но последствия могут выйти далеко за рамки коммерции.\


Хорошо это или плохо

Дезфули отмечает, что использование этих технологий во благо или во вред зависит от того, насколько ответственно мы их разрабатываем и внедряем. В попытке обеспечить хорошие результаты CSIRO и правительство Австралии разработали этическую основу для ИИ в правительстве и промышленности. Эти (добровольные) принципы включают в себя многое из того, что вы можете ожидать, например: «Системы искусственного интеллекта должны уважать и поддерживать права на конфиденциальность и защиту данных». Другой арендатор говорит, что прозрачность и ответственное раскрытие информации имеют решающее значение, чтобы люди могли понять, когда они руководствуются своим выбором. и знать, когда с ними взаимодействует система искусственного интеллекта.

Последнее является ключевым, по словам Сондерсона, который считает, что этичность ИИ должно сводится к прозрачности. Он говорит, что когда вы взаимодействуете с роботом или частью ИИ, вы должны знать как минимум ответы на следующие вопросы:

1) Кому это принадлежит или за этим стоит заинтересованная сторона?

2) Каковы его цели? Например, оно пытается вам что-то продать или убедить вас принять лекарство?

3) Какую тактику он использует для достижения этих целей?

4) Какие данные у него есть?


К сожалению, для большинства из нас ответы на многие из этих вопросов все еще остаются черным ящиком.

источник  https://www.discovermagazine.com/

                      

Комментариев нет: