Классический форум-трекер
canvas not supported
Нас вместе: 4 232 366

Пичаи предупредил об угрозах ИИ и заявил о необходимости контроля технологии


Страницы:   Пред.  1, 2, 3 ... 9, 10, 11 
 
RSS
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Новости
Автор Сообщение
Михаил ®
 
Стаж: 13 лет 3 мес.
Сообщений: 21356
Ratio: 22.972
100%
Гендиректор Alphabet Сундар Пичаи в своей колонки для Financial Times рассказал об угрозах, которые таит в себе искусственный интеллект и заявил о необходимости контролировать развитие технологии как со стороны компаний, так и государств.

Пичаи считает ИИ одной из самых многообещающих технологий. Однако он отмечает, что она может использоваться и для подделки видео, и для распространения ложной информации.

«Есть реальные опасения негативных последствий искусственного интеллекта: от deepfake до гнусного использования распознавания лиц. Хотя работа, чтобы решить эти вопросы, ведется, впереди неизбежно будут новые трудности, которые ни одна компания или индустрия не может решить одна», — написал Пичаи.

Одновременно, по его словам, ИИ может применяться для выявления рака, предсказания погоды и сокращения задержек полетов. Во всех этих проектах принимал участие Google.

Гендиректор Alphabet заявил о необходимости международных стандартов работы с искусственным интеллектом: «Компании как наша не могут просто создавать перспективную технологию и позволить рыночным силам решать, как она будет использоваться. В равной степени мы обязаны следить за тем, чтобы технологии использовались для добра и были доступны каждому. Теперь у меня даже не возникает вопрос, что искусственный интеллект должен регулироваться. Он слишком важен, чтобы этого не делать».

Пичаи напомнил о принципах работы Google с ИИ. Он сообщил также, что компания разработала процедуры, в том числе проверку на соответствие новых продуктов правам человека.

По мнению Пичаи, европейский закон о защите данных пользователей (GDPR) может послужить основой для выработки соответствующего кодекса: «Для некоторых сценариев, как использование алгоритмов в законных медицинских инструментах, в том числе кардиомониторах, существующие нормы — хорошая стартовая точка».

Однако, по его словам, для более новых сфер, например самоуправляемых автомобилей, нужны отдельные правила со стороны правительств.
Raptor303
Стаж: 12 лет 8 мес.
Сообщений: 8819
Ratio: 44.372
100%
estonia.gif
А что, в Индии нет других проблем? Там сама общественная система построена таким отвратительным образом, что общество разделено на касты. Пережиток прошлого, уже 21й век, пора менять там все. И аборты начать делать, а то жуть, что там творится...

Цитата:
Пичаи считает ИИ одной из самых многообещающих технологий. Однако он отмечает, что она может использоваться и для подделки видео, и для распространения ложной информации.

Весьма актуально для русофобской своры западных дегенератов ) Учитывая, что и без фейковых видео, всего лишь ложно интерпретируя реальные видео, уже могут в той же Англии говорить о "highly likely" вероятности вины России против того и того... Ну да, все станет еще проще ) В следующих сериях антироссийской истерии в этой декаде 21го века наверно и сам Путин уже будет лично отравлять новых "скрипалей" и тд ^_^

SaneG_2 писал(а):
Ценность ИИ именно состоит в том, что оно в силу независимости мышления способно выстраивать собственный вектор поведения и менять его, к примеру принятие решения об геноциде как приемлимой мере для устранения ущерба биосфере нашей планеты.

Именно. Скайнет :D Только не понял, ценность с чьей точки зрения...

SaneG_2 писал(а):
Все это есть и у животных и поэтому подобные неконтролируемые функции сознания зовутся примитивными. Кстати многие люди в своем поведении только подобными подкорковыми образованиями и осуществляют свою псевдо-сознательную деятельность. Но таких людьми-то невозможно назвать

Хорошо сказано. Примитивные люди, что принимают решения не с помощью разума, а по эмоциям, которые легко управляемы химическими веществами, скажем так. В идеале, у таких примитивов не должно быть права управления автомобилем и права на рождение и воспитание детей =)

Иван-навИ писал(а): Перейти к сообщению
ОЗХО и без ИИ всех дурит с хим.атаками в Сирии. И т.д.

Именно. И сейчас без ИИ делают фейки, театральные постановки, а с задействованием фейковых видосиков с помощью новеньких нейросетей будет вообще не ясно, где правда, а где ложь. Видео перестанет быть доказательством в принципе через очень короткое время после того, как в мире начнут "снимать" фейки с помощью нейросетей.

Meganerd писал(а): Перейти к сообщению
Если гипотетический ИИ будет контролироваться государством или крупной компанией Монополистом, это будет гораздо хуже неконтролируемого ИИ.

Не вижу логики в ваших словах. Наоборот: неконтролируемый ИИ это Скайнет, этим все сказано :подмигивание:

Meganerd писал(а): Перейти к сообщению
Мы сами станем ИИ, когда соединим кору своего головного мозга с микроэлектроникой.

Johnny Mnemonic (1995) :D

KOTT2T писал(а): Перейти к сообщению

Три зако́на роботехники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).
Законы гласят:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В этих законах, кстати, нет ничего по поводу морального аспекта поведения человека, скажем так. Например, речь только о человеке... А если роботу прикажут зверски убить домашнего животного, мм? Азимов не все продумал :подмигивание:

mmsh. писал(а): Перейти к сообщению
Рявкин
я не знаю что такое синдром Маугли

Лол. Не знать об этом... странно ) Это когда ребенок растет, грубо говоря, с волками, а не с человеком. И таким образом, вырастает животным: бегает на четвереньках и воет как волк/собака. Реальные случае из реальной жизни описаны, гуглите.
aiwalev
Стаж: 12 лет 3 мес.
Сообщений: 9437
Ratio: 3797.069
36.31%
ukraine.gif
Raptor303 писал(а): Перейти к сообщению

В этих законах, кстати, нет ничего по поводу морального аспекта поведения человека, скажем так. Например, речь только о человеке... А если роботу прикажут зверски убить домашнего животного, мм? Азимов не все продумал


В законах ничего не сказано о ситуации, когда неизвестно, действия спасут человека или, наоборот, убьют его.
Человек действует по интуиции, зачастую на авось.
Можно взять в качестве примера стандартный киношный трюк с бомбой, которая через миг взорвется если герой не перекусит правильный провод. Голливудский актер, действует наобум и никогда не ошибается.
А вот робот? Если он не перекусит, бомба немедленно взорвется, что причинит вред - получается робот по первому правилу должен перекусывать. Но если перекусит неверный провод, то немедленный взрыв причинит вред человеку, причем непоправимый. Значит кусать. не должен.
Получается, в соответствии с 1-м правилом он должен кусать и, в то же время и согласно тому же правилу, не имеет право этого делать.
Рявкин
Стаж: 13 лет 6 мес.
Сообщений: 24951
Ratio: 10M
Поблагодарили: 2574
100%
Откуда: из-за горизонта
Raptor303 писал(а): Перейти к сообщению
Лол. Не знать об этом... странно ) Это когда ребенок растет, грубо говоря, с волками, а не с человеком. И таким образом, вырастает животным: бегает на четвереньках и воет как волк/собака. Реальные случае из реальной жизни описаны, гуглите.

да ну нафиг.. прям таки и перестаёт быть человеком?
этот ребёнок родился человеком, и будет человеком всегда! в независимости от того где он и как,
а перестают быть человеком те - кто одушевляет животных в ущерб реальным человеческим душам

Добавлено спустя 1 минуту 57 секунд:

Raptor303
насчёт синдрома маугли - есть синдром "белого человека"
то бишь ты рассуждаешь о счастье кого то - именно со своей колокольни

_________________
Raptor303
Стаж: 12 лет 8 мес.
Сообщений: 8819
Ratio: 44.372
100%
estonia.gif
aiwalev писал(а): Перейти к сообщению
В законах ничего не сказано о ситуации, когда неизвестно, действия спасут человека или, наоборот, убьют его.

Вот, я о том же. Например, приказать роботу разлить масло на полу... а потом люди идут и падают )

Рявкин писал(а):
прям таки и перестаёт быть человеком?

Простите, быть? Перестать быть?! А он и не становился :смех: Ребенок вырос в среде зверей, так что извольте :подмигивание:
С другой стороны, по идее, ничто не должно мешать ему потом стать человеком, реабилитироваться как бы, но здесь я точно не знаю, это надо у специалиста спрашивать.
Показать сообщения:   
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Новости Часовой пояс: GMT + 3
Страницы:   Пред.  1, 2, 3 ... 9, 10, 11
Страница 11 из 11