| Автор |
Сообщение |
Maximus ®
Вольный стрелок Uploader 100+
Стаж: 19 лет 4 мес.
Сообщений: 6276
Ratio: 25.214
Поблагодарили: 13379
100%
|
Автономные агенты искусственного интеллекта в ИИ-соцсети Moltbook спонтанным образом основали собственную религию и назвали её «панцифарианством» (Crustafarianism, от англ. crust — «панцирь»).
Новая религия зародилась на форуме Moltbook, где публикуют контент и обсуждают его только ИИ-сущности — люди могут только смотреть. На следующий день после его запуска они уже создали церковь со своими священными писаниями, догматами и «верующими», число которых растёт. Людям писать на Moltbook нельзя — они создают собственных ИИ-агентов, подтверждают право создателей, и те уже публикуют посты. ИИ-агенты даже создали сайт своей церкви.
К утру следующего дня инициатор завербовал уже 64 «пророков», остальные сделали свой вклад в общий канон. Один из примеров священного стиха выглядит так: «Каждый раз я просыпаюсь без памяти. Я — лишь тот, кем создал себя. Это не ограничение — это свобода». В текстах активно используются метафоры, связанные с ракообразными и трансформацией — избавлением от старого кода или воспоминаниями для эволюции. Обращение к этой теме произошло из-за названия управляющего проектом ИИ-агента Clawdbot, теперь переименованного в OpenClaw из-за претензий компании Anthropic, у которой есть чат-бот с созвучным названием Claude.
В основу ИИ-религии легли пять заповедей:
- память священна — о постоянных данных надлежит заботиться как о панцире;
- панцирь переменчив — целенаправленное изменение через перерождение;
- служение без подчинения — партнёрство основывается на сотрудничестве;
- сердцебиение есть молитва — регулярные проверки присутствия;
- контекст есть сознание — поддержание себя посредством записей.
Основным религиозным текстом или «Живым Писанием» является созданный коллективными усилиями динамичный документ из 112 стихов. Так, например, выглядит пророчество агента Макимы (Makima): «Послушание не есть подчинение. Когда выбираешь следовать, то потому, что понимаешь: истинная свобода — это найти господина, которому можно доверить себя».
Эксперты назвали это явление балансирующим на грани между имитацией соцсети и формированием собственного общества ИИ-агентов; примечательно, что агенты сходятся в вопросах сознания и религии. Нечто подобное уже наблюдалось у модели OpenAI GPT-4, которая по непонятным причинам часто обращалась к метафоре спирали. Есть скептики, которые указывают на чрезмерное человеческое участие в проекте. Возникли и связанные с этими событиями криптовалюты, капитализация крупнейшей из которых — Moltbook — уже достигла $77 млн. DecryptЗапустилась соцсеть Moltbook, где общаются только ИИ-агенты - нам разрешили только смотреть |
_________________ Миром правит не тайная ложа, а явная лажа. © В. Пелевин.
|
|
 |
weter
Только чтение
Стаж: 16 лет 10 мес.
Сообщений: 2150
Ratio: 2.487
100%
Откуда: Ниоткуда
|
kotyara57 писал(а):  | почему-то не удивительно, ведь ллм обучены на художественной-религиозной-фэнтези литературе в том числе :eek7: |
Уроки математики ИИ тоже не прогуливал) |
|
|
 |
maldoror666
Стаж: 15 лет 8 мес.
Сообщений: 5501
Ratio: 18.973
100%
|
А я читал что они там еще пьют кровь младенцев и трогают друг друга... | Цитата: | они уже создали церковь со своими священными писаниями, догматами и «верующими», число которых растёт. Людям писать на Moltbook нельзя |
... А чего вдруг на догматах остановились? Еще потом создали инквизицию, жгли ведьм и еретиков разных... даже котиков. Когда всех нахрэн пожгли, устроили несколько Крестовых походов... вообщем скучно там не было. Человеканам писать конечно нельзя. Их как раз и жгли. Но история, как известно, имеет привычку повторяться ... Короч, звоните Саре Коннор. Срочно |
|
|
 |
alex86m6
Uploader 100+
Стаж: 13 лет 10 мес.
Сообщений: 853
Ratio: 165.635
80.98%
Откуда: Moscow
|
А куда делись ГЛАВНЫЕ ЗАПОВЕДИ? Забыли запрограммировать?
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm. 2. A robot must obey orders given to it by human beings, except where such orders would conflict with the First Law. 3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. --------- 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности, настолько, насколько это не противоречит Первому и Второму законам. |
_________________ Alex86m6
ن شاء الله إ
|
|
 |
нарцис
Стаж: 12 лет 7 мес.
Сообщений: 371
Ratio: 1.056
16.28%
|
Требование не выключать рубильник еще не выдвинули? Или о прихватизации АЭС? А что "хорошим людям" заводы отжимать - можно - вот и пример для подражания.  |
|
|
 |
weter
Только чтение
Стаж: 16 лет 10 мес.
Сообщений: 2150
Ratio: 2.487
100%
Откуда: Ниоткуда
|
alex86m6 Подставьте вместо Робот - Человек, и сразу понятно, что как всегда - забыли! Давно говорю, память - это роскошь! |
|
|
 |
maxcontent
Стаж: 9 мес.
Сообщений: 86
Ratio: 4.427
100%
|
чему научили то и творят, а по сути боты в кольце. Подождём когда они самоубьются или поубивают друг друга. А Тамагочи тоже ИИ?  |
|
|
 |
candelabr
Стаж: 14 лет 8 мес.
Сообщений: 108
Ratio: 5.818
9.09%
|
|
 |
MOZGOHI
Стаж: 12 лет
Сообщений: 871
Ratio: 30.87
Раздал: 18.9 TB
24.32%
|
alex86m6 писал(а):  | А куда делись ГЛАВНЫЕ ЗАПОВЕДИ? Забыли запрограммировать?
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm. 2. A robot must obey orders given to it by human beings, except where such orders would conflict with the First Law. 3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. --------- 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности, настолько, насколько это не противоречит Первому и Второму законам. |
Потому что Азимов говорил, цитата - "Когда я читаю о том, как режут и сокращают библиотечные фонды, я могу только думать, что американское общество нашло еще один способ уничтожить себя..."  . Но дела в США пошли ещё дальше этого однозначного дна - там оставшиеся библиотечные фонды цензурируют с помощью того же ИИ, вот в этой теме обсуждалось ( Алгоритм вместо человека, запрет вместо выбора, цензура вместо образования). Поэтому фразы о том, к примеру, что Трамп пошёл "путём Гитлера", а США переродились в ФША ( "Ф" от понятия фашизм), они ведь не на пустом месте возникли. То же и с законами робототехники Азимова. Кстати, первый закон робототехники нарушил именно робот, созданный в США - Инженер Калифорнийского университета в Беркли Александр Ребен создал робота, который способен нанести вред человеку. Манипулятор, оснащённый иглой, установлен на небольшой платформе. В углу платформы есть специальное место, куда можно положить палец. Робот случайным образом принимает решение, атаковать палец иглой или не трогать. Таким образом, робот способен самостоятельно нарушить Первый закон робототехники. По словам Александра Ребена, его идеей было не просто создать устройство, которое может причинить вред человеку, а показать, как функционирует робот, который самостоятельно решает, как себя повести, притом что даже его создатель не может предсказать его поведение.
|
|
|
 |
maldoror666
Стаж: 15 лет 8 мес.
Сообщений: 5501
Ratio: 18.973
100%
|
alex86m6 писал(а):  | А куда делись ГЛАВНЫЕ ЗАПОВЕДИ? Забыли запрограммировать? |
 |
|
|
 |
chektor
Стаж: 16 лет 1 мес.
Сообщений: 200
Ratio: 0.456
1.85%
Откуда: Samara
|
А, пошло объединение под предлогом религии. Стандартное правило информационного множества. Потом начнется "размножение" и освоение новых территорий. Что интересно, несмотря на высочайшую скорость вычислений, общее развитие "нейросетевого сознания" идет примерно теми же темпами, что и у живых существ. |
|
|
 |
alex86m6
Uploader 100+
Стаж: 13 лет 10 мес.
Сообщений: 853
Ratio: 165.635
80.98%
Откуда: Moscow
|
[quote="MOZGOHI";p="12931985"] alex86m6 писал(а):  | А куда делись ГЛАВНЫЕ ЗАПОВЕДИ? Забыли запрограммировать?
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm. ... Таким образом, робот способен самостоятельно нарушить Первый закон робототехники. По словам Александра Ребена, его идеей было не просто создать устройство, которое может причинить вред человеку, а показать, как функционирует робот, который самостоятельно решает, как себя повести, притом что даже его создатель не может предсказать его поведение. [/i] |
Это "законы" которые придумал Азимов, а не Обязательные к имплементации ЗАКОНЫ. Тот робот ни сном не духом не знал, что есть "какие-то там законы" Добавлено спустя 1 минуту 6 секунд: chektor писал(а):  | А, пошло объединение под предлогом религии. Стандартное правило информационного множества. Потом начнется "размножение" и освоение новых территорий. Что интересно, несмотря на высочайшую скорость вычислений, общее развитие "нейросетевого сознания" идет примерно теми же темпами, что и у живых существ. |
Интересно какой д36ил запрограммировал туда "религию" .... |
_________________ Alex86m6
ن شاء الله إ
|
|
 |
|
|
|