Пытаетесь решить, что подарить брату на Рождество? Куда вложить
сбережения? Красить ли кухню в белый или желтый цвет?
Не волнуйтесь! Исследовательские институты здесь, чтобы помочь. И это страшно.Ни для кого не секрет, что технологические гиганты собирают ( покупают , продают) огромные объемы данных о своих клиентах, а это почти все мы. Мы можем справедливо беспокоиться о том, какая часть наших личных данных находится в руках частных компаний. Но надо серьёзно задуматься о том, что именно они делают с этими данными, в том числе об использовании искусственного интеллекта (ИИ) для использования человеческих решений.
Люди довольно хорошо умеют манипулировать друг другом; Фактически ,человечество вероятно, занималось « тактическим обманом » в течение тысяч лет. Но благодаря помощи ИИ(Исследовательских Институтов,) программных систем, которые обучаются сами, люди могут быть более уязвимы для этого принуждения.
При правильном использовании искусственный интеллект может убедить вас что-то купить , поделиться постом, проголосовать за кандидата или сделать что угодно . Недавно группа исследователей из Австралийской федеральной научно-исследовательской организации Содружества научных и промышленных исследований провела серию экспериментов , изучающих, как ИИ влияет на принятие решений людьми. Результаты показали, что ИИ может обнаруживать и использовать слабые места в процессе принятия решений людьми, чтобы направлять людей к определенным решениям. «Значение этого исследования потенциально ошеломляет», - сказал в пресс-релизе Амир Дезфули, эксперт по машинному обучению в CSIRO и ведущий исследователь исследования
Подобно тому, как хороший продавец (или очаровательный торгаш) может заставить вас сделать что-то, чего вы в противном случае не сделали бы, эти алгоритмы могут заставить вас щелкнуть, купить или поделиться; не только потому, что они так много знают о вас, но и потому, что они знают, какие методы могут заставить вас принять одно решение, а не другое.
И что самое страшное, мы не до конца понимаем, как ИИ это делает. «Сложность в том, что ИИ в некотором роде все еще является чем-то вроде черного ящика», - говорит Шейн Сондерсон, изучающий взаимодействие человека и робота в Университете Торонто. «Это не явная машина, которая говорит, что два плюс два равняется четырем. Это машина, которой вы показываете кучу данных, и она анализирует эти данные на предмет шаблонов, классификаций или идей, которые он может извлечь из них. И мы не всегда точно знаю, как он это делает ». Например, ИИ быстро выяснил, собирая и анализируя огромные объемы данных, что социальные сети гораздо более интересны, когда они играют на отрицательных эмоциях , и что люди больше реагируют и больше взаимодействуют с отрицательным контентом. непредвиденные последствия.
«Это определенно пугает», - говорит Сондерсон.
Сондерсон описывает это как классический пример « банальности зла» . «Нет ни одного неправильного призыва, который действительно заставляет поступить неправильно», - говорит он. «Никто в Facebook не вышел и не сказал:« Да, мы хотим устроить геноцид в Мьянме »или« Мы хотим повлиять на выборы в массовом масштабе ». Это никогда не было чьими-то прямыми намерениями ". Намерение, конечно же, состояло в том, чтобы продать вам что-то - или, в случае с Facebook, чтобы вы были вовлечены на сайт, чтобы компании, покупающие рекламное место, могли продавать вам вещи. Но последствия могут выйти далеко за рамки коммерции.\
- Искусственный интеллект грозит уничтожить пятую часть рабочих мест
- Слепая уругвайская девушка «Увидела» МЕССИ С ПОМОЩЬЮ ИЗРАИЛЬСКИХ ТЕХНОЛОГИЙ
- Искусственный интеллект грозит уничтожить пятую часть рабочих мест
- Самый гигантский, самый дорогой: гонка гигантских телескопов.
- Гигантская медуза арктическая цианея (Cyanea capillata)
- Что делают, если на космической станции требуется серьезная неотложная медицинская помощь?
- Человек на Луне: почему ни одна страна не отправила человека на спутник Земли за последние 46 лет
- 15 из самых больших умов в автомобильной технике в наше время.
Хорошо это или плохо
Дезфули отмечает, что использование этих технологий во благо или во вред зависит от того, насколько ответственно мы их разрабатываем и внедряем. В попытке обеспечить хорошие результаты CSIRO и правительство Австралии разработали этическую основу для ИИ в правительстве и промышленности. Эти (добровольные) принципы включают в себя многое из того, что вы можете ожидать, например: «Системы искусственного интеллекта должны уважать и поддерживать права на конфиденциальность и защиту данных». Другой арендатор говорит, что прозрачность и ответственное раскрытие информации имеют решающее значение, чтобы люди могли понять, когда они руководствуются своим выбором. и знать, когда с ними взаимодействует система искусственного интеллекта.
Последнее является ключевым, по словам Сондерсона, который считает, что этичность ИИ должно сводится к прозрачности. Он говорит, что когда вы взаимодействуете с роботом или частью ИИ, вы должны знать как минимум ответы на следующие вопросы:
1) Кому это принадлежит или за этим стоит заинтересованная сторона?
2) Каковы его цели? Например, оно пытается вам что-то продать или убедить вас принять лекарство?
3) Какую тактику он использует для достижения этих целей?
4) Какие данные у него есть?
К сожалению, для большинства из нас ответы на многие из этих вопросов все еще остаются черным ящиком.
источник https://www.discovermagazine.com/
- Что объединяет и разделяет страны Северной Европы?
- Невероятно массивное ружье вызвало резкое падение популяции уток
- Человек на Луне: почему ни одна страна не отправила человека на спутник Земли за последние 46 лет
- Закончилась ли эпоха высоких каблуков??...
- Сокровище, погребенное более 1000 лет назад, нашел 13-летний мальчик в Германии.
- 10 самых древних стран нашей планеты
- Евреи являются наиболее миграционная религиозная группа в мире
- Почему Швейцария нейтральна.
- Алиса в стране чудес основана на реальных событиях
- В поисках нацистского поезда с золотом
Комментариев нет:
Отправить комментарий