Классический форум-трекер
canvas not supported
Нас вместе: 4 232 377

Экс-инженер Google предупредила об опасности создания роботов-убийц


Страницы:   Пред.  1, 2, 3, 4  След. 
 
RSS
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Новости
Автор Сообщение
Maximus ®
Вольный стрелок
Uploader 100+
Стаж: 17 лет 6 мес.
Сообщений: 5082
Ratio: 25.179
Поблагодарили: 13237
100%
nnm-club.gif
Инженер, работавшая в Google над печально известным проектом военных дронов, предупредила об очередной опасности, которую несут современные разработки. По словам экс-сотрудницы американской корпорации, людям стоит опасаться создания роботов-убийц.

Лаура Нолан проработала в Google четыре года, после чего её задействовали в проекте, над которым интернет-гигант трудился совместно с Министерством обороны США. В 2017 году этому проекту было присвоено имя — Project Maven. Основная задача Project Maven была сосредоточена вокруг усовершенствования военных дронов с помощью искусственного интеллекта.

Специалисты трудились над созданием ИИ-систем, которые бы вычисляли вражеские объекты и при этом различали людей и неодушевлённые предметы. Google пришлось заморозить проект после того, как сотрудники взбунтовались — многие подписали петицию против Project Maven. Ещё десятки людей выразили свой протест, просто перестав работать над проектом.

В числе тех, кто задумывался над опасностью реализации таких ИИ-систем, была и Лаура Нолан.
    «Все это может потенциально привести к незаконным убийствам и неоправданному зверству. Даже учитывая условия и законы войны, если выпустить сотни или тысячи таких машин, они могут навредить больше, чем помочь», — передаёт слова специалиста Business Insider.
Тем не менее многие страны продолжают все плотнее внедрять искусственный интеллект в военные системы, создавая все более смертоносную коллаборацию. Именно поэтому Нолан предлагает запретить создание роботов-убийц и регламентировать это так же, как сейчас регламентировано использование химического оружия.

Источник

_________________
«Если ты ненавидишь, значит тебя победили» – Конфуций
isidzukuri
Стаж: 17 лет
Сообщений: 1081
Ratio: 5.978
Поблагодарили: 1719
100%
roody.gif
Ярослав 11. писал(а): Перейти к сообщению
А ИИ учится и делает то что он сам пожелает.

Знатное заблуждение. Не существует такого ИИ, которое желает. Есть установки и стимуляции плюс прошедший опыт.
т.е. абсолютно как человек. Только в другом исполнении. Неужели сложно понять несколько простых правил инструментов.
Знать как это создано, кто создал и как этим управлять. И тут же всё сложное становиться простым.
А фильмы про Терминатора всего лишь драма с ропатами.
Кстати человек тоже не управляет своими желаниями, а совсем даже наоборот.
maltus14
Стаж: 10 лет 2 мес.
Сообщений: 479
Ratio: 6.643
60.22%
ukraine.gif
Хамо саспенс склонен к суициду. Индивидуальному или коллективному.
Своими руками или чужими. Без приспособлений и с приспособлениями.
В одиночку и своими - это поэтично и философично.
Но за компанию, с приспособлениями в виде роботов, и под музыку криков и разрушений - это как шумная веселая пьянка.
Так что сделают роботов-убийц. Это предопределено. Генетически.
vovanych1973
Стаж: 13 лет 6 мес.
Сообщений: 89
Ratio: 0.888
100%
ussr.gif
Роботы-убийцы выглядят вот так


А не то что на фото в посте

сократят количество рабочих мест и невписавшиеся в рынок люди сами вымрут
splash85
Стаж: 12 лет 2 мес.
Сообщений: 87
Ratio: 29.363
Раздал: 2.052 TB
13.4%
Откуда: Ставрополь, Элиста
russia.gif
Читайте между строк.

Какая-то никому не известная деффачка пошла пготив системы (тм) и обратилась к людям планеты Земля, ко-ко-ко, мир во всём мире, ко-ко-ко, так давайте же запретим, ко-ко-ко, а лучше пропихнём в ООН, как уголовное преследование за отрицание Холокоста, а всех подозреваемых разбомбим с авианосцев мира и добра. Причём NDA при подключении к проекту она наверняка подписывала, а за разглашение самого факта военных разработок в самой демократической стране мира не только посадят-с, но и отправят в страну вечной охоты. Ну или уволят с волчьим билетом и перспективой провести остаток жизни в трейлер-парке, что ещё хуже.

Запретить значит для всех остальных стран, кроме США, в итоге сами США смогут спокойно, не боясь конкуренции, заниматься разработками, ну вот как с ракетами ближней-малой дальности намедни. Сказали, что %шаблон для СМИ% и через недельку поставили на вооружение. Да, за недельку разработали и произвели. Вы нам не верите? А может ещё и в ФРС и демократию не верите? Хулиганю
beriaussr
Стаж: 13 лет 10 мес.
Сообщений: 746
Ratio: 1.736
Раздал: 180 GB
3.53%
Откуда: из России!
russia.gif
Я полностью за чтобы США запретили производить роботов-убийц и не мешали это делать нам..
igorsheff
Стаж: 13 лет 1 мес.
Сообщений: 208
Ratio: 2.184
0.72%
sciensys писал(а): Перейти к сообщению
и пока по улицам не ходят киборги, отстреливающие людей - живём и радуемся миру...

Беру за основу :подмигивание:
Ярослав 11.
Стаж: 13 лет
Сообщений: 1335
Ratio: 3.691
Поблагодарили: 5646
100%
Откуда: Кропивницький
ukraine.gif
isidzukuri писал(а): Перейти к сообщению
Ярослав 11. писал(а): Перейти к сообщению
А ИИ учится и делает то что он сам пожелает.

Знатное заблуждение. Не существует такого ИИ, которое желает. Есть установки и стимуляции плюс прошедший опыт.
т.е. абсолютно как человек. Только в другом исполнении. Неужели сложно понять несколько простых правил инструментов.
Знать как это создано, кто создал и как этим управлять. И тут же всё сложное становиться простым.
А фильмы про Терминатора всего лишь драма с ропатами.
Кстати человек тоже не управляет своими желаниями, а совсем даже наоборот.
человек сам для себя решает что хорошо что плохо (в основном что хорошо и плохо самому себе) так и ИИ, ему можно внушить что нельзя то и другое но все равно победят свои желания и взгляды. Гитлера не кто не учил делать из людей "мясо". Чикатилу тоже не кто не учил быть тварью. Так и с ИИ. Хотя большой разницы нет человек с большими возможностями сойдёт с ума или ИИ которому дадут эти возможности. В фильме говорят что ИИ понял что самою большую опасность для планеты и ему лично несёт человек.
nimrael
Стаж: 12 лет 2 мес.
Сообщений: 231
Ratio: 14.548
59.87%
Qawer20 писал(а): Перейти к сообщению
Все эти "учёные" доиграются, что создадут расу роботов и люди будут лишь домашними зверюшками у роботов.

Не создадут. У нас банально не существует возможностей и алгоритмов обучения ИИ. Только тренировка по заранее прдустановленным параметрам и набору действий. Проблема заключается нескольо в другом - любое ПО несовершенно. Если напрямую задействовать распознавание угроз и сопряжение его с применением силы, то именно ОШИБКИ распознавания и соотноесения ситуации с конкретным запрограммированным вариантом действия могут стать проблемой. При этом никакого "Скайнета" в том самом фантастическом виде, когда он "принимал решения о ненужности человечества" быть не может. Во всяком случае с имеющимся алгоритмическим набором инструментов. А пока что никакого прорыва в данной сфере как не было, так и нет.

Добавлено спустя 2 минуты 44 секунды:

Ярослав 11. писал(а): Перейти к сообщению
человек сам для себя решает что хорошо что плохо (в основном что хорошо и плохо самому себе) так и ИИ, ему можно внушить что нельзя то и другое но все равно победят свои желания и взгляды. Гитлера не кто не учил делать из людей "мясо". Чикатилу тоже не кто не учил быть тварью. Так и с ИИ. Хотя большой разницы нет человек с большими возможностями сойдёт с ума или ИИ которому дадут эти возможности. В фильме говорят что ИИ понял что самою большую опасность для планеты и ему лично несёт человек.

У ИИ нет желаний, нет взглядов и нет мыслей. Те самые нейронные сети (точнее системы из них) действуют строго по принципу "распознание - соотнесение с определенной заранее предусмотренной программистами ситуацией - реакция из строго предустановленного программистами набора действий". Есть конечно, вариант, когда и действие будет выбираться алгоритмом, но... тут суть в том, что эффективность такого равна эффективности генератора случайных чисел. Нет возможности разработать вменяемые и адекватные алгоритмы, по которым ИИ мог бы ПОДБИРАТЬ действия подходящие предмету "по своему усмотрению". А встроить, как я уже сказал, генератор случайных поступков можно и без ИИ.
Clarkdale
Стаж: 11 лет
Сообщений: 126
Ratio: 48.446
100%
finland.gif
Дешевле, чем промывать мозги армейским болванчикам. На кнопку нажал и без лишней демагогии сократил население планеты на 99%.
nimrael
Стаж: 12 лет 2 мес.
Сообщений: 231
Ratio: 14.548
59.87%
vovanych1973 писал(а): Перейти к сообщению

А не то что на фото в посте

сократят количество рабочих мест и невписавшиеся в рынок люди сами вымрут

Правильно, вообще убрать машины, компьютеры. Экскаваторы ненужные, тракторы. Плуг, борона, лопата и главное - никакой механизации. :D

Добавлено спустя 2 минуты 47 секунд:

isidzukuri писал(а): Перейти к сообщению
]
Знатное заблуждение. Не существует такого ИИ, которое желает. Есть установки и стимуляции плюс прошедший опыт.
т.е. абсолютно как человек.

Слишком притянутая за уши аналогия. И да, стимуляция для ИИ невозможна. Стимулировать можно того, кто обладает мышлением. Алгоритмы выполняют приказы. Основаная разница между человеком и машиной в том, что машинный алгоритм при оценке ситуации и отнесении этой ситуации к определенному сценарию учитывает строго ограниченный (не более и не менее) набор данных от внешних источников. Человек же вариьирует и сам предустанавливает не только источники, которые принимает во внимание, но и сам устанавливает "вес" (влияние) каждой порции данных в принятии решения. Этому алгоритмы не научить, во всяком случае в сколь-нибудь обозримом будущем.
box11box
Стаж: 13 лет 2 мес.
Сообщений: 49
Ratio: 0.906
0.4%
ukraine.gif
Если об этом говорят и есть технические возможности - Это неизбежность.
Marduk6
Стаж: 10 лет 6 мес.
Сообщений: 94
Ratio: 18.348
0.4%
Какая глупость! Какая разница этой тете, кто ее будет убивать? Киборг с бластером или неграмотный мужик с лопатой?
Нужно думать как не допускать ситуаций когда вообще кого либо нужно убивать. Но об этом думать запрещено, эдак до всяких коммунизмов додуматься можно, а это недопустимо.
ermak68
Стаж: 7 лет 8 мес.
Сообщений: 99
Ratio: 86.934
100%
Цитата:
[i][i]человек сам для себя решает что хорошо что плохо (в основном что хорошо и плохо самому себе) так и ИИ, ему можно внушить что нельзя то и другое но все равно победят свои желания и взгляды. Гитлера не кто не учил делать из людей "мясо". Чикатилу тоже не кто не учил быть тварью. Так и с ИИ. Хотя большой разницы нет человек с большими возможностями сойдёт с ума или ИИ которому дадут эти возможности. В фильме говорят что ИИ понял что самою большую опасность для планеты и ему лично несёт человек[/i][/i]


Человек обладает творчеством (творческим мышлением), т.е., способен создавать новое. Поэтому он способен отступать от тех привычек, стандартов, которые закладываются ему в сознание в процессе его образования.
С машиной же все не так. И не может быть также, как у человека. В машине есть четкий алгоритм: если ТО, то ЭТО (как вариант – То или ЭТО) Всегда регламентировано и четко структурировано. И никакого творчества быть не может по умолчанию и никогда.
Поэтому из хорошего мальчика может вырасти Гитлер. Но из машины может получиться лишь машина, которая способна делать только то, что ей на стадии программирования «сказали» делать. Человек – био-, психо-, социальное существо. То есть, есть огромное количество факторов, которые влияют на его развитие. Поэтому он может изменяться. И решения его, взгляды, менталитет, меняются в процессе его жизни. Он развивается или деградирует (развивается регрессивно).

Добавлено спустя 6 минут 24 секунды:

Marduk6 писал(а): Перейти к сообщению
Какая глупость! Какая разница этой тете, кто ее будет убивать? Киборг с бластером или неграмотный мужик с лопатой?
Нужно думать как не допускать ситуаций когда вообще кого либо нужно убивать. Но об этом думать запрещено, эдак до всяких коммунизмов додуматься можно, а это недопустимо.


Коммунизмом здесь вряд ли отдает, но вот мальтузианством точно. Хорошо оно или плохо, но естественный отбор никто не опроверг еще. Я не сторонних таких теорий, но отчасти принимаю их, вынужден с ними в определенной степени соглашаться
SaneG_2
Только чтение
Стаж: 14 лет 6 мес.
Сообщений: 754
Ratio: 79.278
Поблагодарили: 610
100%
Просто гугл не видел разработки робота Федора, там все понятно.

Добавлено спустя 3 минуты 57 секунд:

Смотрим фильм "Эллизиум - рай не на земле", и впитываем...

_________________
Если вы углубитесь в биохимию, молекулярную биологию, то найдете роспись того дизайнера (Творца). © Ричард Докинс
Kedmi
Стаж: 5 лет 3 мес.
Сообщений: 2902
Ratio: 5.539
Раздал: 2.178 TB
100%
witch.png
Давайте статью,полностью выложу. А то непонимание,сути происходящего. Превращает обсуждение,в холивар.

Прочитайте полностью,написано интересно Более 90 академиков в области искусственного интеллекта, этики и компьютерных наук выпустили сегодня открытое письмо, в котором призвали Google прекратить свою работу над проектом Maven и поддержать международный договор, запрещающий автономные системы вооружений. Вероятно,многие всё не осилят. Интересное выделил =)

Из прочитанного,коротко.

Это программа,по беспилотникам. Внутреннюю петицию,подписали 4000 сотрудников. Десяток из них уволилось,или возможно попросили но об этом молчок. Открытое письмо к гуглу,академиков и исследователей.,как и петиция сотрудников. Руководством игнорируется,и работы продолжаются. По русски,ложили они на чьё-то мнение,когда на кону огромные деньги.

Лично. Не понимаю,смысла таких протестных действий. Что за бунт на корабле,когда корабль плывёт. Не согласуется это понимаешь,с их этическими принципами. Это очень даже хорошо,своё мнение и понимание. Только выходит,они кричат давайте прекратим данную программу. А в это время Китай,Россия,Израиль и другие страны будут разрабатывать и внедрять. Странное понимание у людей,происходящего в данной области в мире. Если бы такую разработку,смогли бы не допустить все страны. Это одно. Но что бы это прекратили разрабатывать в гугле,по заказу минобороны США. Это уже выбивается,за рамки понимания. США и живёт в основном,за счёт производства оружия и развязывания войн и конфликтов. А тут такие петиции)) До чего наивные и непонимающие того,что здесь ничего они изменить не смогут.

Всё самое передовое,создавалось для войн. Ничего не изменилось и не изменится
Показать сообщения:   
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Новости Часовой пояс: GMT + 3
Страницы:   Пред.  1, 2, 3, 4  След.
Страница 2 из 4