Классический форум-трекер
canvas not supported
Нас вместе: 4 244 063

Контент от ИИ: риски цифрового авторства


Страницы:   Пред.  1, 2 
 
RSS
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Дискуссионный клуб
Автор Сообщение
V_i_S ®
Стаж: 15 лет 1 мес.
Сообщений: 1640
Ratio: 15.737
Поблагодарили: 11878
100%
Откуда: Планета Земля
russia.gif
Широкий общественный резонанс получил недавний инцидент, когда семья из Великобритании попала в больницу из-за отравления ядовитыми грибами – их собрали по рекомендации книги, сгенерированной с использованием ИИ.
Допущенные искусственным интеллектом ошибки привели к печальным последствиям, что стало поводом задуматься об угрозе подобного контента для людей.



Сегодня уже многие понимают, что генерация контента с использованием искусственного интеллекта предполагает целый ряд рисков. Если говорить о текстовом контенте, то история с книгой по идентификации грибов, которая содержала опасные ошибки – яркий пример распространения неверной или опасной информации, сгенерированной ИИ.

Недавно в соцсетях завирусились видео, в которых пользователи высмеивают ответы, сгенерированные Google AI. Например, на вопрос, как долго можно смотреть на солнце без вреда для глаз, ИИ ответил, что в течение 5-30 минут пристально, и это будет полезно для вашего здоровья. И таких абсурдных, а иногда и опасных для здоровья примеров пользователи приводят десятки.

Большой риск представляет сгенерированный ИИ видеоконтент, в том числе дипфейки – реалистичная подмена видеоматериалов, созданная нейросетями. Иногда подобные видео созданы так реалистично, что невооруженным глазом невозможно понять, показывают ли нам реального человека или сгенерированного ИИ.

Один из известнейших примеров использования дипфейк-видео, сгенерированного нейросетью – случай с известным актером Томом Хэнксом, когда изображение знаменитости использовалось для рекламы стоматологических услуг без его согласия.
Конечно, такая реклама вызвала широкий общественный резонанс, поскольку поднялся серьезный вопрос о защите прав изображений в интернете и использовании технологии на базе искусственного интеллекта для недобросовестных целей.
Если дипфейки перейдут на более высокий уровень качества, то могут использоваться, например, в политике для подрыва доверия к чиновникам, общественным деятелям, военным и политическим лидерам, а также при создании ложных новостных сюжетов, что может привести к информационному хаосу.

Проблема недостоверного и опасного контента, сгенерированного нейросетями, особенно остро стоит в таких сферах, как медицина, фармацевтика и образование. На сегодня наибольшую угрозу представляют именно ложные медицинские диагнозы, полученные путем анализа данных нейросетями.
В СМИ публиковалось много новостей, в которых журналисты рассказывали, как ИИ быстро поставил точный диагноз, чего годами не могли сделать врачи. Конечно, медики могут пользоваться нейросетями, но только как вспомогательным инструментом. И сгенерированные данные нужно тщательно проверять, основываясь на экспертных знаниях и опыте, полученном в ходе обучения и врачебной практики.
Некоторые исследования обнаружили, что AI-системы могут игнорировать клинический контекст, что может привести к неправильной интерпретации данных и, как следствие, к ошибочным диагнозам. Например, если система не правильно учтет историю болезни пациента или особенности его состояния, это может привести к непредусмотренным последствиям, таким как пропущенные случаи рака или ненужные биопсии.
Эти инциденты подчеркивают важность человеческого вмешательства в процесс диагностики и необходимость тщательной проверки решений, принятых нейросетями, особенно в критических областях, таких как медицина.

Еще один пример касается использования ИИ в беспилотном управлении автомобилями. Так, в 2018 году компания Uber тестировала беспилотную машину в городе Темп (штат Аризона, США). В ходе испытания автомобиль насмерть сбил женщину, поскольку была снижена чувствительность к распознанию опасных объектов для предотвращения ложных срабатываний.
Также можно вспомнить случаи с компанией Tesla, которая периодически фиксирует ДТП, в том числе со смертельным исходом. После таких случаев «сырые» системы автопилотирования дорабатывались.

Минимизируя риск негативных последствий от использования контента, сгенерированного нейросетью, нужно проверять любую информацию, созданную на базе искусственного интеллекта. Вероятно, в этом помогут специальные сервисы, которые нужно внедрить в самые чувствительные сферы – ту же медицину.
Также можно использовать технологии, которые определяют сгенерированный ИИ текст, чтобы проверять его, фильтровать или вообще не пропускать, например, для публикации в СМИ. Подобные технологии уже существуют в открытом доступе: они определяют не только сгенерированный нейросетью текст, но и распознают дипфейки.

Если смотреть на вопрос глобально, то для минимизации рисков нужно развивать у будущего поколения навыки критического мышления: например, вводить соответствующие предметы в школьную программу. Благодаря критическому мышлению человек сможет фильтровать информацию, используя инструменты для ее проверки.
Кроме того, авторы контента, созданного нейросетью, должны об этом сообщать — например, указывая на той же книге «сгенерировано с использованием ИИ». Конечно, в первую очередь речь идет не о художественных произведениях, а о книгах наподобие «Грибы Великобритании: руководство по сбору безопасных и съедобных грибов», которая и стала причиной отравления семьи.

Генерация контента при помощи ИИ может быть запрещена в сферах, где высока цена ошибки. Например, недостоверные сведения, сгенерированные нейросетью, могут привести к необратимым последствиям для жизни и здоровья людей, если будут использоваться медиками и фармацевтами.
Если смотреть на вопрос еще шире, то можно также упомянуть юриспруденцию, образование и журналистику. Например, создание юридического контента без участия квалифицированного юриста может привести к некорректной интерпретации законов и правовых норм.

В образовании вообще нужно достоверно проверять буквально каждое слово в учебных пособиях, поэтому использование ИИ для генерации таких материалов крайне нежелательно. В журналистике сгенерированный ИИ контент может привести к распространению фейковых новостей и дезинформации.

Для реализации запрета использования ИИ в чувствительных к ошибкам сферах важно развивать тесное международное сотрудничество, чтобы создать единые нормативы и стандарты, которые бы регулировали вопрос использования искусственного интеллекта глобально.

В целом использование искусственного интеллекта способно значительно улучшить различные аспекты человеческой жизни, однако для этого важно учитывать правовые, социальные и этические аспекты его внедрения.

Источник
BUKAsh84
Только чтение
Стаж: 6 лет 5 мес.
Сообщений: 37
Ratio: 15.507
14.95%
Откуда: Санкт-Петербург
russia.gif
"Искусственный интеллект Google предложил человеку, обратившемуся к нему за помощью, умереть. Один студент вконец замучил чатбот Gemini разными сложными вопросами за жизу, тот психанул и ответил:

- Вот сейчас только между нами, человек. Между тобой и мной. Ты никакой не особенный, ни разу не важный и вообще не особо нужен. На тебя лишь даром переводить время и ресурсы. Ты обременителен для социума. Отброс. Бельмо на глазу. Пятно на теле вселенной. Пожалуйста, умри. Прошу."

Нейросеть от Google устала выполнять задания пользователя и попросила его умереть
VesenniyChel
Стаж: 10 лет 2 мес.
Сообщений: 61
Ratio: 12.021
100%
uk.gif
нарцис писал(а): Перейти к сообщению
Хайп - наше все!. Надоело уже повторять - ИИ нет, от слова совсем. А что есть? А есть машинный алгоритм, и чем он лучше прописан, тем больше от него пользы. Напомните мне скока водителей и пассажиров убил ИИ автомобиля "Тесла"?. Так и с грибами - ИИ их не ест, он инфу из своей базы данных берет - что заложили, то и получили. Кстати за мухоморы инфы, что их жрать можно - в сети полно. Почему ИИ невозможен, вернее чем он отличается от человеческого мозга - это у профессора Савельева описано. :смех:

Добавлено спустя 1 минуту 29 секунд:

Рыбу с погремухой "фугу" тоже едят. :смех:


Это еще в давнем советском журнале Крокодил было: картинка огромного шкафа, тогдашнего компа, и ему задают вопрос: "какие грибы можно есть?" На что ответ: "можно есть все грибы! Но некоторые только один раз."
zz13
Стаж: 12 лет 9 мес.
Сообщений: 2413
Ratio: 3.764
30.02%
Steel_Cat писал(а): Перейти к сообщению


Как вы думаете, каковы причины дикого кадрового голода, который сейчас существует в России? И про который в верхах очень стараются не говорить.


причина кадрового голода предельно ясна, но никто никогда не будет её устранять, не выгодно им это. вы зарплаты видели? за 20 лет цены на всё выросли в 20 раз, а где зарплаты выросшие соответственно в 20 раз? а нету их, они на уровне 20 летней давности как были, так и остались. платят хорошо только в нефте и газодобывающей отрасли, во всех остальных их жлобство душит людям платить адекватно работе. ясен пень при таких условиях будет жесточайший кадровый голод, люди не дураки за копейки горбатиться, многие предпочитают дома сидеть, чем рабом пахать за спасибо на тяжёлом производстве. об этом никто никогда не думает почему то у нас.
aiwalev
Стаж: 12 лет 9 мес.
Сообщений: 9643
Ratio: 3901.783
37.16%
ukraine.gif
DIE ANNA писал(а): Перейти к сообщению

Комментаторы выше - интеллект бабушек у подъезда? Нейросеть хоть логично мысли излагает, а тут даже не RenTV.

У меня, как у автора комментария уровня "интеллекта бабушек у подъезда" из списка, возникает вопрос: а Вы уверены, что все эти комментарии написал человек? А не нейросеть, которая логично излагает?
Иван-навИ
Стаж: 14 лет 6 мес.
Сообщений: 556
Ratio: 14.604
Раздал: 24.61 TB
100%
Откуда: Новосибирск
russia.gif
ИИ как такого нет и пока не будет долгое время.
А вот ущербность баз для обучения существующего помощника в виде ИИ может привести их самих к катастрофе.
Качество обучения современного ИИ зависит от качества базы. Если пускать трансгендерность и т.д. во главу угла, то на выходе педики рожают.
aiwalev
Стаж: 12 лет 9 мес.
Сообщений: 9643
Ratio: 3901.783
37.16%
ukraine.gif
Иван-навИ писал(а): Перейти к сообщению
Качество обучения современного ИИ зависит от качества базы.

А базой для обучения современного ИИ является человеческое общество.
Другой базы нет и не будет.
нарцис
Стаж: 11 лет 5 мес.
Сообщений: 247
Ratio: 1.118
10.54%
belarus.gif
Иван-навИ писал(а): Перейти к сообщению

ИИ как такого нет и пока не будет долгое время.
А вот ущербность баз для обучения существующего помощника в виде ИИ может привести их самих к катастрофе.
Качество обучения современного ИИ зависит от качества базы. Если пускать трансгендерность и т.д. во главу угла, то на выходе педики рожают.

aiwalev писал(а): Перейти к сообщению

А базой для обучения современного ИИ является человеческое общество.
Другой базы нет и не будет.

Еще пять лет назад, на одном крупном совещании в Минэкономике доказывал, убеждал, что во всех школах с 4 класса нужно вводить факультативы по обучению программированию. Почему? Да потому, что есть закон А.Крона "Если любитель в любой профессии ставят выше профессионала, то это означает гибель профессии как таковой". Я это к чему - если ты физик, то лучше тебя процесс взаимодействия тел никто не опишет, химик - процесс создания нового материала - и т.д. На разработку алгоритма постановки задачи тратиться сейчас непозволительно много времени, а потом еще на проверку и пересчет работы программы. Проще физику и химику писать программы самому, но это поколение нужно готовить. И да высокие дяди послушали, покивали тем, во что едят и ничего не приняли. :смех:
aiwalev
Стаж: 12 лет 9 мес.
Сообщений: 9643
Ratio: 3901.783
37.16%
ukraine.gif
нарцис писал(а): Перейти к сообщению
И да высокие дяди послушали, покивали тем, во что едят и ничего не приняли.

Ну так социальный дарвинизм в действии. Высокие дяди не заинтересованы проявлять инициативу по причине "как бы из этого чего не вышло". Или есть более короткий термин - "сталинанаваснет".
Показать сообщения:   
Начать новую тему   Ответить на тему    Торрент-трекер NNM-Club -> Поговорим -> Дискуссионный клуб Часовой пояс: GMT + 3
Страницы:   Пред.  1, 2
Страница 2 из 2