Классический форум-трекер
canvas not supported
Нас вместе: 4 232 350

Известные во всем мире разработчики ИИ договорились не создавать умное оружие


Страницы:  1, 2, 3  След. 
 
RSS
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Новости
Автор Сообщение
Maximus ®
Вольный стрелок
Uploader 100+

Online
Стаж: 17 лет 6 мес.
Сообщений: 5085
Ratio: 25.179
Поблагодарили: 13237
100%
nnm-club.gif
Технологии искусственного интеллекта развиваются бурными темпами. Специалисты научили ИИ многому, сейчас его слабая форма (сильная, к счастью или к несчастью пока не создана) работает в промышленности, судоходстве, развлекательной сфере и многих других отраслях. Но что насчет военного дела? Да, здесь ИИ тоже используется, ведь предиктивный анализ траектории ракеты или транспортного средства, действий противника, разработка собственной стратегии — со всем этим может справиться искусственный интеллект.

Но что, если встроить ИИ любого уровня в оружие, не станет ли оно эффективнее? Скорее всего, станет, и будет весьма «производительным». Но здесь появляются уже вопросы этики. Может ли машина распоряжаться судьбами людей? Многие эксперты из сферы технологий считают, то нет. И эти «многие» на днях подписали декларацию — своего рода обещание никогда не принимать участие в разработке умного оружия.

Среди прочих специалистов, которые приняли участие в создании и подписании декларации — Илон Маск, представители DeepMInd и сотрудники многих других компаний, где так либо иначе затрагиваются вопросы искусственного интеллекта. По мнению группы ученых и предпринимателей, которые оставили свои подписи под меморандумом, решать убивать ли человека или нет должен все же другой человек, а не машина. И груз этого решения ложится на плечи того, кто его принял.

В случае же с машиной никаких моральных колебаний нет — систему отправили на дежурство, скажем, на прочесывание проселочных дорог во время войны, и она отстреливает врагов как подсказывает совесть вычислительный блок. По словам экспертов, разработка умного оружия с элементами ИИ может стать дестабилизирующим фактором как для любой страны, так и для ее граждан.

Текст декларации относительно использования ИИ в создании оружия был опубликован после завершения конференции IJCAI (International Joint Conference on Artificial Intelligence), проходившей с Стокгольме. Она была организована научно-исследовательским институтом Future of Life Institute. Он занимается изучением рисков существования человечества. Институт ранее призывал отказаться от идеи создания умного летального оружия. Сейчас эта идея нашла понимание и начинает распространяться все более широко.

Среди подписавшихся — глава компаний SpaceX и Tesla Илон Маск, три сооснователя дочерней компании Google — DeepMind, создатель Skype Яан Таллинн, плюс известные в мире технологий исследователи искусственного интеллекта Стюарт Рассел, Йошуа Бенджио, Юрген Шмидхубер.

Отдельно подписавшиеся отметили то, что их общая инициатива должна помочь перейти от слов к делу в плане отказа от умного летального оружия. Нет, революцию никто устраивать не собирается, основная задача — показать опасность постепенной интеллектуализации оружия любого типа. «Оружие, которое самостоятельно решает, кого убивать — отвратительная и дестабилизирующая идея, вроде биологического оружия. К идее умного оружия следует относиться точно так же, как и к оружию биологическому».

Здесь, правда, есть одна сложность. Дело в том, что отличить действительно автономное и «умное» оружие от того, которое таковым не является, достаточно сложно. Черта призрачная. Когда обычное hi-tech оружие прекращает быть глупым, умнеет и начинает решать, кого оставить в живых, а кого — убить? Автоматическая турель, которая отслеживает появление людей по тепловому излучению — можно ли использовать такое оружие? Да и велика ли разница между умным оружием и обычным, если та же турель будет автоматически наводиться, а человек — просто жать на гашетку?

Кроме того, сама декларация припозднилась — у примерно 30 различных стран на вооружении есть летальные системы, которые с натяжкой или без, но можно назвать умными.
Кстати, интересный факт — разработчики корпорации Google в прямом смысле слова взбунтовались, когда услышали о том, что компания собирается разрабатывать автономные системы для Пентагона. А именно — нелетального дрона с ИИ.

Говоря об умном оружии и его будущем, нельзя не вспомнить научно-фантастический рассказ (автора и название, к сожалению, не помню), где разумную боеголовку с уровнем развития интеллекта как у 5-летнего ребенка послали выполнять задание. Но при подлете к вражеской базе она обнаружила, что там живут люди, такие же, как и на ее собственной базе. Осознав это, она решила доложить обо всем своему создателю и отправилась в обратный полет. Заканчивается рассказ тем, что ракета влетает в окно дома, где живет ее создатель, но по понятным причинам ничего рассказать не успевает.
Источник: Habr

_________________
«Если ты ненавидишь, значит тебя победили» – Конфуций
herezad
Стаж: 12 лет 10 мес.
Сообщений: 2809
Ratio: 27.584
Поблагодарили: 58445
100%
свежо предание,но верится с трудом. :нет:

_________________
Мы не бандиты! Мы - Благородные Пираты! :стрельба:
В связи с санкциями, всё скачанное считать трофеем! Это же так по - Человечески!
Leonidddd
Стаж: 13 лет 6 мес.
Сообщений: 17
Ratio: 2.997
5.02%
australia.gif
Правительство если захочет - сделает всё, что угодно, а подобными декларациями, все, я извиняюсь, только подтираются.
SilentScream87
Стаж: 11 лет 4 мес.
Сообщений: 66
Ratio: 1.147
3.83%
ukraine.gif
Эта декларация - лист подорожника на открытом переломе - гонку вооружений она не остановит.
savinap
Стаж: 13 лет 9 мес.
Сообщений: 349
Ratio: 11.772
Раздал: 6.622 TB
Поблагодарили: 8
20.76%
russia.gif
врут !!! впк один из доходных бизнесов, от такого куска только идиот откажется
Рявкин
Стаж: 13 лет 5 мес.
Сообщений: 24931
Ratio: 10M
Поблагодарили: 2574
100%
Откуда: из-за горизонта
Цитата:
Известные во всем мире разработчики ИИ договорились не создавать умное оружие

Французские пословицы и поговорки;
«На войне как на войне»
«Аппетит приходит во время еды»
--------------------------------------------------
и вообще, а разве существует что то такое - что нельзя использовать как оружие?
unni
Стаж: 13 лет 1 мес.
Сообщений: 118
Ratio: 4.53
32.69%
Откуда: Екатеринбург
russia.gif
У США никогда не было и не будет никаких границ дозволенного, поэтому мы должны иметь адекватный ответ. Вариантов нет - ИИ должен развиваться везде, где он может помочь. А если боитесь ИИ, то лучше разоружитесь и проблемы не будет.

_________________
Россия навсегда!
Аллекссей
Стаж: 12 лет 3 мес.
Сообщений: 143
Ratio: 31.329
100%
russia.gif
угу, прям так все и поверили.
Statera
 
Стаж: 12 лет 11 мес.
Сообщений: 70
Ratio: 28.199
Раздал: 39.94 TB
Поблагодарили: 2693
100%
Цитата:
Среди подписавшихся — глава компаний SpaceX и Tesla Илон Маск, три сооснователя дочерней компании Google — DeepMind, создатель Skype Яан Таллинн, плюс известные в мире технологий исследователи искусственного интеллекта Стюарт Рассел, Йошуа Бенджио, Юрген Шмидхубер.


Ну может эти подписавшиеся и не будут делать умное оружие, однако это не означает, что где-нибудь в подвалах военных объектов его не будут делать другие люди. Скорее всего декларация сделана для самоуспокоения, типо вот я и еще несколько человек не будем делать ИИ, значит этого никто больше делать не будет. Вроде умные люди, а такой ерундой занимаются.
мшвм
Стаж: 11 лет
Сообщений: 434
Ratio: 3.088
Поблагодарили: 88
100%
Довольно изящное решение скрыть невозможность создания ИИ.
LiLOF
Только чтение
Стаж: 11 лет 1 мес.
Сообщений: 1305
Ratio: 0.744
Поблагодарили: 9
0.08%
belarus.gif
Белорусы не подписали.. Танковый ИИ уже натренирован в миллионах боях с людьми в игре WoT, и вскоре новый гусеничный терминатор выедет на поле реального боя где нибудь в песках Сирии.
Fujhover
Стаж: 13 лет 2 мес.
Сообщений: 118
Ratio: 4.269
Раздал: 3.135 TB
0.77%
Где-то в DARPA ученые умирают со смеху, а в boston dynamics создали робота который истерично смеется.
Kalex
Администратор
Стаж: 16 лет 7 мес.
Сообщений: 44364
Ratio: 128.272
Поблагодарили: 15160
100%
nnm-club.gif
Statera писал(а): Перейти к сообщению
типо вот я и еще несколько человек не будем делать ИИ
26 стран членов ООН, 176 организаций и 2556 специалистов - это все же чуть больше, чем "несколько человек" ради информационного шума и самопиара.
Maximus писал(а): Перейти к сообщению
"Обещать - не значит жениться", но все же, радуют сами факты - проявленная инициатива, обещание, и факты бойкота, послужившие прецедентами для этого.

И не обязательно, но не исключено, что в будущем те технологические компании и специалисты, которые будут это игнорировать и заниматься разработкой ИИ в направлении, против которого подписано это соглашение, если их имена и деятельность станут известны (рано или поздно или сами засветятся, или благодаря утечкам), могут столкнуться с некоторыми препятствиями в доступе к некоторым технологиям, а частные лица неофициально негативное отношение к себе и сложности с переходом в другие компании, занимающиеся ИИ в более мирных целях.

_________________
NNMClub и IPv6/Teredo
luxus911
Стаж: 9 лет 8 мес.
Сообщений: 562
Ratio: 9.749
Поблагодарили: 1126
13.3%
russia.gif
Любовь отвергнута, душа уволена.
Ничто не истинно, все дозволено

_________________
ASUS TUF Dash F15 FX517ZE-HN162 (SN: N9NRCX01U704369)
• Windows 11 Pro x64 23H2 (22631.3155)
• ЦП: Intel i5-12450H @ 2 GHz - 4.4 GHz
• ОЗУ: 32 GB DDR5-4800 (2 х 16 GB)
• Видеокарта: NVIDIA GeForce RTX 3050 Ti @ 4 GB
mnimm
Стаж: 10 лет 6 мес.
Сообщений: 201
Ratio: 0.698
0%
Та ладна. Повторится сценарий один в один из фильма робокопа и прочих фантастулек. Власть имущие отгородятся от прочего люда варварского и поставят исключительно себе во благо и защиты ради таких вот роботов охранителей чтобы не покусились на их капитал. И дальше будут заливать байки про демократию и великую мечту, к которой нужно стремится, чтобы чего-то достичь. А на деле люд батрачить как стадо. А если нет такие вот роботы быстро все порешают.
Показать сообщения:   
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Новости Часовой пояс: GMT + 3
Страницы:  1, 2, 3  След.
Страница 1 из 3