Автор |
Сообщение |
Maximus ®
Вольный стрелок Uploader 100+
Стаж: 17 лет 6 мес.
Сообщений: 5082
Ratio: 25.179
Поблагодарили: 13237
100%
|
Инженер, работавшая в Google над печально известным проектом военных дронов, предупредила об очередной опасности, которую несут современные разработки. По словам экс-сотрудницы американской корпорации, людям стоит опасаться создания роботов-убийц. Лаура Нолан проработала в Google четыре года, после чего её задействовали в проекте, над которым интернет-гигант трудился совместно с Министерством обороны США. В 2017 году этому проекту было присвоено имя — Project Maven. Основная задача Project Maven была сосредоточена вокруг усовершенствования военных дронов с помощью искусственного интеллекта. Специалисты трудились над созданием ИИ-систем, которые бы вычисляли вражеские объекты и при этом различали людей и неодушевлённые предметы. Google пришлось заморозить проект после того, как сотрудники взбунтовались — многие подписали петицию против Project Maven. Ещё десятки людей выразили свой протест, просто перестав работать над проектом. В числе тех, кто задумывался над опасностью реализации таких ИИ-систем, была и Лаура Нолан. «Все это может потенциально привести к незаконным убийствам и неоправданному зверству. Даже учитывая условия и законы войны, если выпустить сотни или тысячи таких машин, они могут навредить больше, чем помочь», — передаёт слова специалиста Business Insider. Тем не менее многие страны продолжают все плотнее внедрять искусственный интеллект в военные системы, создавая все более смертоносную коллаборацию. Именно поэтому Нолан предлагает запретить создание роботов-убийц и регламентировать это так же, как сейчас регламентировано использование химического оружия. Источник |
_________________ «Если ты ненавидишь, значит тебя победили» – Конфуций
|
|
|
isidzukuri
Стаж: 17 лет
Сообщений: 1081
Ratio: 5.978
Поблагодарили: 1719
100%
|
Ярослав 11. писал(а): | А ИИ учится и делает то что он сам пожелает. |
Знатное заблуждение. Не существует такого ИИ, которое желает. Есть установки и стимуляции плюс прошедший опыт. т.е. абсолютно как человек. Только в другом исполнении. Неужели сложно понять несколько простых правил инструментов. Знать как это создано, кто создал и как этим управлять. И тут же всё сложное становиться простым. А фильмы про Терминатора всего лишь драма с ропатами. Кстати человек тоже не управляет своими желаниями, а совсем даже наоборот. |
|
|
|
maltus14
Стаж: 10 лет 2 мес.
Сообщений: 479
Ratio: 6.643
60.22%
|
Хамо саспенс склонен к суициду. Индивидуальному или коллективному. Своими руками или чужими. Без приспособлений и с приспособлениями. В одиночку и своими - это поэтично и философично. Но за компанию, с приспособлениями в виде роботов, и под музыку криков и разрушений - это как шумная веселая пьянка. Так что сделают роботов-убийц. Это предопределено. Генетически. |
|
|
|
vovanych1973
Стаж: 13 лет 6 мес.
Сообщений: 89
Ratio: 0.888
100%
|
Роботы-убийцы выглядят вот так
А не то что на фото в посте
сократят количество рабочих мест и невписавшиеся в рынок люди сами вымрут |
|
|
|
splash85
Стаж: 12 лет 2 мес.
Сообщений: 87
Ratio: 29.363
Раздал: 2.052 TB
13.4%
Откуда: Ставрополь, Элиста
|
Читайте между строк. Какая-то никому не известная деффачка пошла пготив системы (тм) и обратилась к людям планеты Земля, ко-ко-ко, мир во всём мире, ко-ко-ко, так давайте же запретим, ко-ко-ко, а лучше пропихнём в ООН, как уголовное преследование за отрицание Холокоста, а всех подозреваемых разбомбим с авианосцев мира и добра. Причём NDA при подключении к проекту она наверняка подписывала, а за разглашение самого факта военных разработок в самой демократической стране мира не только посадят-с, но и отправят в страну вечной охоты. Ну или уволят с волчьим билетом и перспективой провести остаток жизни в трейлер-парке, что ещё хуже. Запретить значит для всех остальных стран, кроме США, в итоге сами США смогут спокойно, не боясь конкуренции, заниматься разработками, ну вот как с ракетами ближней-малой дальности намедни. Сказали, что %шаблон для СМИ% и через недельку поставили на вооружение. Да, за недельку разработали и произвели. Вы нам не верите? А может ещё и в ФРС и демократию не верите? |
|
|
|
beriaussr
Стаж: 13 лет 10 мес.
Сообщений: 746
Ratio: 1.736
Раздал: 180 GB
3.53%
Откуда: из России!
|
Я полностью за чтобы США запретили производить роботов-убийц и не мешали это делать нам.. |
|
|
|
igorsheff
Стаж: 13 лет 1 мес.
Сообщений: 208
Ratio: 2.184
0.72%
|
sciensys писал(а): | и пока по улицам не ходят киборги, отстреливающие людей - живём и радуемся миру... |
Беру за основу |
|
|
|
Ярослав 11.
Стаж: 13 лет
Сообщений: 1335
Ratio: 3.691
Поблагодарили: 5646
100%
Откуда: Кропивницький
|
isidzukuri писал(а): | Ярослав 11. писал(а): | А ИИ учится и делает то что он сам пожелает. |
Знатное заблуждение. Не существует такого ИИ, которое желает. Есть установки и стимуляции плюс прошедший опыт. т.е. абсолютно как человек. Только в другом исполнении. Неужели сложно понять несколько простых правил инструментов. Знать как это создано, кто создал и как этим управлять. И тут же всё сложное становиться простым. А фильмы про Терминатора всего лишь драма с ропатами. Кстати человек тоже не управляет своими желаниями, а совсем даже наоборот. |
человек сам для себя решает что хорошо что плохо (в основном что хорошо и плохо самому себе) так и ИИ, ему можно внушить что нельзя то и другое но все равно победят свои желания и взгляды. Гитлера не кто не учил делать из людей "мясо". Чикатилу тоже не кто не учил быть тварью. Так и с ИИ. Хотя большой разницы нет человек с большими возможностями сойдёт с ума или ИИ которому дадут эти возможности. В фильме говорят что ИИ понял что самою большую опасность для планеты и ему лично несёт человек. |
|
|
|
nimrael
Стаж: 12 лет 2 мес.
Сообщений: 231
Ratio: 14.548
59.87%
|
Qawer20 писал(а): | Все эти "учёные" доиграются, что создадут расу роботов и люди будут лишь домашними зверюшками у роботов. |
Не создадут. У нас банально не существует возможностей и алгоритмов обучения ИИ. Только тренировка по заранее прдустановленным параметрам и набору действий. Проблема заключается нескольо в другом - любое ПО несовершенно. Если напрямую задействовать распознавание угроз и сопряжение его с применением силы, то именно ОШИБКИ распознавания и соотноесения ситуации с конкретным запрограммированным вариантом действия могут стать проблемой. При этом никакого "Скайнета" в том самом фантастическом виде, когда он "принимал решения о ненужности человечества" быть не может. Во всяком случае с имеющимся алгоритмическим набором инструментов. А пока что никакого прорыва в данной сфере как не было, так и нет. Добавлено спустя 2 минуты 44 секунды: Ярослав 11. писал(а): | человек сам для себя решает что хорошо что плохо (в основном что хорошо и плохо самому себе) так и ИИ, ему можно внушить что нельзя то и другое но все равно победят свои желания и взгляды. Гитлера не кто не учил делать из людей "мясо". Чикатилу тоже не кто не учил быть тварью. Так и с ИИ. Хотя большой разницы нет человек с большими возможностями сойдёт с ума или ИИ которому дадут эти возможности. В фильме говорят что ИИ понял что самою большую опасность для планеты и ему лично несёт человек. |
У ИИ нет желаний, нет взглядов и нет мыслей. Те самые нейронные сети (точнее системы из них) действуют строго по принципу "распознание - соотнесение с определенной заранее предусмотренной программистами ситуацией - реакция из строго предустановленного программистами набора действий". Есть конечно, вариант, когда и действие будет выбираться алгоритмом, но... тут суть в том, что эффективность такого равна эффективности генератора случайных чисел. Нет возможности разработать вменяемые и адекватные алгоритмы, по которым ИИ мог бы ПОДБИРАТЬ действия подходящие предмету "по своему усмотрению". А встроить, как я уже сказал, генератор случайных поступков можно и без ИИ. |
|
|
|
Clarkdale
Стаж: 11 лет
Сообщений: 126
Ratio: 48.446
100%
|
Дешевле, чем промывать мозги армейским болванчикам. На кнопку нажал и без лишней демагогии сократил население планеты на 99%. |
|
|
|
nimrael
Стаж: 12 лет 2 мес.
Сообщений: 231
Ratio: 14.548
59.87%
|
vovanych1973 писал(а): | А не то что на фото в посте
сократят количество рабочих мест и невписавшиеся в рынок люди сами вымрут
|
Правильно, вообще убрать машины, компьютеры. Экскаваторы ненужные, тракторы. Плуг, борона, лопата и главное - никакой механизации. Добавлено спустя 2 минуты 47 секунд: isidzukuri писал(а): | ] Знатное заблуждение. Не существует такого ИИ, которое желает. Есть установки и стимуляции плюс прошедший опыт. т.е. абсолютно как человек. |
Слишком притянутая за уши аналогия. И да, стимуляция для ИИ невозможна. Стимулировать можно того, кто обладает мышлением. Алгоритмы выполняют приказы. Основаная разница между человеком и машиной в том, что машинный алгоритм при оценке ситуации и отнесении этой ситуации к определенному сценарию учитывает строго ограниченный (не более и не менее) набор данных от внешних источников. Человек же вариьирует и сам предустанавливает не только источники, которые принимает во внимание, но и сам устанавливает "вес" (влияние) каждой порции данных в принятии решения. Этому алгоритмы не научить, во всяком случае в сколь-нибудь обозримом будущем. |
|
|
|
box11box
Стаж: 13 лет 2 мес.
Сообщений: 49
Ratio: 0.906
0.4%
|
Если об этом говорят и есть технические возможности - Это неизбежность. |
|
|
|
Marduk6
Стаж: 10 лет 6 мес.
Сообщений: 94
Ratio: 18.348
0.4%
|
Какая глупость! Какая разница этой тете, кто ее будет убивать? Киборг с бластером или неграмотный мужик с лопатой? Нужно думать как не допускать ситуаций когда вообще кого либо нужно убивать. Но об этом думать запрещено, эдак до всяких коммунизмов додуматься можно, а это недопустимо. |
|
|
|
ermak68
Стаж: 7 лет 8 мес.
Сообщений: 99
Ratio: 86.934
100%
|
Цитата: | [i][i]человек сам для себя решает что хорошо что плохо (в основном что хорошо и плохо самому себе) так и ИИ, ему можно внушить что нельзя то и другое но все равно победят свои желания и взгляды. Гитлера не кто не учил делать из людей "мясо". Чикатилу тоже не кто не учил быть тварью. Так и с ИИ. Хотя большой разницы нет человек с большими возможностями сойдёт с ума или ИИ которому дадут эти возможности. В фильме говорят что ИИ понял что самою большую опасность для планеты и ему лично несёт человек[/i][/i] |
Человек обладает творчеством (творческим мышлением), т.е., способен создавать новое. Поэтому он способен отступать от тех привычек, стандартов, которые закладываются ему в сознание в процессе его образования. С машиной же все не так. И не может быть также, как у человека. В машине есть четкий алгоритм: если ТО, то ЭТО (как вариант – То или ЭТО) Всегда регламентировано и четко структурировано. И никакого творчества быть не может по умолчанию и никогда. Поэтому из хорошего мальчика может вырасти Гитлер. Но из машины может получиться лишь машина, которая способна делать только то, что ей на стадии программирования «сказали» делать. Человек – био-, психо-, социальное существо. То есть, есть огромное количество факторов, которые влияют на его развитие. Поэтому он может изменяться. И решения его, взгляды, менталитет, меняются в процессе его жизни. Он развивается или деградирует (развивается регрессивно). Добавлено спустя 6 минут 24 секунды: Marduk6 писал(а): | Какая глупость! Какая разница этой тете, кто ее будет убивать? Киборг с бластером или неграмотный мужик с лопатой? Нужно думать как не допускать ситуаций когда вообще кого либо нужно убивать. Но об этом думать запрещено, эдак до всяких коммунизмов додуматься можно, а это недопустимо. |
Коммунизмом здесь вряд ли отдает, но вот мальтузианством точно. Хорошо оно или плохо, но естественный отбор никто не опроверг еще. Я не сторонних таких теорий, но отчасти принимаю их, вынужден с ними в определенной степени соглашаться |
|
|
|
SaneG_2
Только чтение
Стаж: 14 лет 6 мес.
Сообщений: 754
Ratio: 79.278
Поблагодарили: 610
100%
|
Просто гугл не видел разработки робота Федора, там все понятно.
Добавлено спустя 3 минуты 57 секунд:
Смотрим фильм "Эллизиум - рай не на земле", и впитываем... |
_________________ Если вы углубитесь в биохимию, молекулярную биологию, то найдете роспись того дизайнера (Творца). © Ричард Докинс
|
|
|
Kedmi
Стаж: 5 лет 3 мес.
Сообщений: 2902
Ratio: 5.539
Раздал: 2.178 TB
100%
|
Давайте статью,полностью выложу. А то непонимание,сути происходящего. Превращает обсуждение,в холивар. Прочитайте полностью,написано интересно Более 90 академиков в области искусственного интеллекта, этики и компьютерных наук выпустили сегодня открытое письмо, в котором призвали Google прекратить свою работу над проектом Maven и поддержать международный договор, запрещающий автономные системы вооружений. Вероятно,многие всё не осилят. Интересное выделил Из прочитанного,коротко. Это программа,по беспилотникам. Внутреннюю петицию,подписали 4000 сотрудников. Десяток из них уволилось,или возможно попросили но об этом молчок. Открытое письмо к гуглу,академиков и исследователей.,как и петиция сотрудников. Руководством игнорируется,и работы продолжаются. По русски,ложили они на чьё-то мнение,когда на кону огромные деньги. Лично. Не понимаю,смысла таких протестных действий. Что за бунт на корабле,когда корабль плывёт. Не согласуется это понимаешь,с их этическими принципами. Это очень даже хорошо,своё мнение и понимание. Только выходит,они кричат давайте прекратим данную программу. А в это время Китай,Россия,Израиль и другие страны будут разрабатывать и внедрять. Странное понимание у людей,происходящего в данной области в мире. Если бы такую разработку,смогли бы не допустить все страны. Это одно. Но что бы это прекратили разрабатывать в гугле,по заказу минобороны США. Это уже выбивается,за рамки понимания. США и живёт в основном,за счёт производства оружия и развязывания войн и конфликтов. А тут такие петиции)) До чего наивные и непонимающие того,что здесь ничего они изменить не смогут. Всё самое передовое,создавалось для войн. Ничего не изменилось и не изменится |
|
|
|
|
|
|