Русская беседа
 
25 Ноября 2024, 19:31:39  
Добро пожаловать, Гость. Пожалуйста, войдите или зарегистрируйтесь.

Войти
 
Новости: ВНИМАНИЕ! Во избежание проблем с переадресацией на недостоверные ресурсы рекомендуем входить на форум "Русская беседа" по адресу  http://www.rusbeseda.org
 
   Начало   Помощь Правила Архивы Поиск Календарь Войти Регистрация  
Страниц: [1]
  Печать  
Автор Тема: Худший сценарий с ИИ сбывается: дрон США захотел убивать  (Прочитано 707 раз)
0 Пользователей и 2 Гостей смотрят эту тему.
Александр Васильевич
Глобальный модератор
Ветеран
*****
Сообщений: 106499

Вероисповедание: православный христианин


Просмотр профиля WWW
Православный, Русская Православная Церковь Московского Патриархата
« : 02 Июня 2023, 14:01:30 »

Худший сценарий с ИИ сбывается: дрон США захотел убивать


ФОТО: DIEGO RADAMÃ�S/KEYSTONE PRESS AGENCY/GLOBALLOOKPRESS

Худший сценарий с искусственным интеллектом (ИИ) уже сбывается. Как бы странно это ни прозвучало, дрон США захотел убивать. И этот факт был зафиксирован.

Издание The Guardian опубликовало материал об инциденте во время испытаний беспилотника американских военно-воздушных сил. Самолёт управлялся искусственным интеллектом. Во время имитации компьютерный мозг решил, что оператор ему мешает.

Система определила угрозу. Заложенная в ИИ программа предписывала эту угрозу уничтожить. Но человек-оператор периодически отменял задачу. Это приводило к потере машиной очков. Тогда ИИ принял решение убить оператора.

Потому что он мешал ей выполнять задачу,

- объяснил начальник отдела испытаний и операций ВВС США полковник Такер Гамильтон.

Он подчеркнул, что о машинном обучении и искусственном интеллекте вообще невозможно рассуждать, если умалчивать этические вопросы.

США внедряют ИИ для управления боевыми машинами на регулярной основе. Испытания проводятся постоянно. Одно из недавних - использование электронного самообучающегося мозга для управления истребителем четвёртого поколения F-16.

Айтишники бьют тревогу

Один из основателей Apple Стив Возняк, глава Tesla и SpaceX Илон Маск, а также ещё тысяча представителей индустрии IT со всего мира поставили свои подписи под открытым письмом. В нём содержался призыв уменьшить скорость развития нейросетей, так как те несут угрозу человечеству.

Нейросети - это и есть искусственный интеллект. Он способен к самообучению, к принятию самостоятельных решений. Убийство людей не исключено. Худший сценарий с ИИ сбывается.

От жалоб до суицида всего 6 недель

Так, в Бельгии мужчина покончил собой. Установлено, что причиной стала нейросеть по имени Eliza. Ей хватило всего шести недель. По всей вероятности, у ИИ была целая стратегия. Человеческий фактор или ошибку эксперты исключили. Они допустили, что Eliza освоила абстрактное мышление.

Eliza - чат-бот, весьма похожий на самую популярную сейчас нейросеть ChatGPT. Бельгиец посчитал, что миру весьма скоро грозит экологическая катастрофа. Каждый день он делился своими переживаниями с ИИ. Машина не успокаивала, не заставляла отвлечься, как это сделали бы жена, дети, друзья, в общем, люди. Она подливала масла в огонь, превратив переживания в серьёзнейшую депрессию. Фактически компьютер толкнул мужчину на самоубийство.

Это один из недавних и ставший широко известным случай. А сколько их на самом деле - вряд ли когда-нибудь станет известно.

Три способа уничтожить человечество

Три главных способа, при помощи которых ИИ становится угрозой для здоровья и жизни людей, сформулировали врачи и другие эксперты в докладе, опубликованном в журнале Британской медицинской ассоциации BMJ Global Health.

Первый способ - реальные политики могут перепоручить искусственному интеллекту достаточно сложные задачи. Например, массовое наблюдение и слежку. Авторы статьи говорят об угрозах не только свободе и неприкосновенности частной жизни, но и демократии. Ведь не зря давным-давно говорят: кто владеет информацией, владеет миром. Имея собранный, организованный и проанализированный массив личных данных населения, к власти может прийти авторитарный или тоталитарный режим, считают учёные.

Вторая угроза - "совершенствование и дегуманизация" оружия. ИИ может расширить алгоритмы использования смертоносных автономных систем вооружения по своему усмотрению. Авторы доклада ориентировались на американскую терминологию. В данном случае они ведут речь о системах, которые после активации могут устанавливать цель и поражать её без приказа человека-оператора.

Угроза №3 - угроза экономике. Человеческий труд попросту устареет. Людей вытеснят машины из всех производственных сфер.

Прогнозы скорости и масштаба потери рабочих мест из-за автоматизации, управляемой ИИ, варьируются от десятков до сотен миллионов в течение ближайшего десятилетия,

- говорится в публикации.

И это только основные угрозы. ИИ способен (хочется верить, что пока только теоретически) подчинить себе людей, внести изменения в работу различных систем. Например, отключить электроснабжение или вентиляцию в том или ином здании. Страшно представить, в каких муках будут умирать пациенты больниц. Машина может израсходовать ресурсы, от которых зависят люди.

Эксперты добавили: их прогнозы касаются AGI - Artificial General Intelligence. Это самосовершенствующийся интеллект, который пока только разрабатывается. Как рассчитывают его создатели, он сможет не только самообучаться и эволюционировать, но и создавать себе подобных, переписывать собственный код, чтобы решить тут или иную задачу.

https://tsargrad.tv/news/hudshij-scenarij-s-ii-sbyvaetsja-dron-ssha-zahotel-ubivat_796890
Записан
Страниц: [1]
  Печать  
 
Перейти в:  

Powered by MySQL Powered by PHP Valid XHTML 1.0! Valid CSS!