Об игре
Новости
Войти
Регистрация
Рейтинг
Форум
7:28
2391
 online
Требуется авторизация
Вы не авторизованы
   Форумы-->Форум для внеигровых тем-->
1|2|3|4|5|6|7|8|9|10|11

АвторРазвитие искусственного разума может быть смертельно опасным для человека.
А ведь правда, искусственный интеллект - это люди, а их создатели - рептилоиды. А опасность в том, что рано или поздно мы себя сами уничтожим.
А ведь правда, искусственный интеллект - это люди, а их создатели - рептилоиды мы съели всех рептилоидов!
из рептилоидов уже давно люди делают сумки,ремни и ботинки
Если брать сюжет как в "терминаторе", то угрозу представляет не искусственный разум, а то оружие, которое он может применить против людей. Но раз у людей пока хватило ума его не применять, то у искусственного разума, превосходящего людей, тем более должно хватить.
А вообще почему сразу опасность, может наоборот? Вот например в книжке "стальная крыса идёт в армию" искусственный разум не только не был враждебный к людям, а наоборот, всячески им помогал, решив многие проблемы, на которые у людей просто не хватало вычислительной мощности
Но раз у людей пока хватило ума его не применять, то у искусственного разума, превосходящего людей, тем более должно хватить.
вот тут ошибочка. люди не применяют тоже ядерное оружие. из-за страха ответного удара. а компьютеру пофиг, он ничего не боится.
а компьютеру пофиг, он ничего не боится
Но он ни к чему и не стремится, у него нет воли и желаний. Интеллект это только способ обработки информации, и не более. А чтобы предпринимать какие-то активные действия, он должен чего-то хотеть, к чему-то стремиться, принимать решения. Если всё это возможно запрограммировать, то так же возможно сделать ему и страх, и моральные принципы.
Да и вообще, ну кто даст электронной системе контроль над запуском ядерного оружия? Это так безо всякого злобного искусственного разума любой хакер сможет всё запустить. Там как минимум должен быть большой рубильник, который если не включить, ничего не будет. И система с кодами доступа, чтобы не включилось случайно
для Akron:
Если брать сюжет как в "терминаторе"
А еще есть сюжет как в "Трансформерах".
Стивен Хокинг наверняка британский ученый...
да еще и слишком впечатлительный. Пересмотрел Терминатора.
но оказался еще и на редкость невнимательным или глупым - там сам Терминатор весь искусственный интеллект и затерминировал.
Бред. А ресурсы ис.разум где будет брать?
А чтобы предпринимать какие-то активные действия, он должен чего-то хотеть, к чему-то стремиться, принимать решения. Если всё это возможно запрограммировать, то так же возможно сделать ему и страх, и моральные принципы.

Которые программа может и обойти.
Как говорил Хокинг в "Футураме": я ничего не понимаю в этой аномалии, хотя уже получил гонорар за книгу о ней
Которые программа может и обойти.
Скорее уж человек может. Все "мысли" программы в любой момент могут быть выведены на экран. Это ж только в фильмах искусственный разум создаётся внезапно каким-нибудь сумрачным гением. В реальности это долгая и поэтапная работа. Где на каждом все ошибки и недоработки должны анализироваться, а затем проектироваться новые функции. Такой проблемы, чтобы программа сама по себе приобрела незапланированные функции, не бывает никогда, проблема всегда в том, чтобы запланированные как-то работали.
А вот что творится в головах у генералов, имеющих доступ к ядерному оружию, никто не знает. Может среди них есть такие, у которых давно атрофировался и страх, и мораль.
Да и про разум как-то рано говорить. Первым шагом может быть что-то типа "виртуального интеллекта". Он может понимать язык людей, формулировать ответы на нём, обучаться, планировать свои действия. Но за рамки этого выйти не может, не способен к творческому подходу, не имеет собственных желаний. Ну и скорее выступает советчиком, а не деятелем, принятие решений в любом случае остаётся за человеком
Он может понимать язык людей, формулировать ответы на нём, обучаться, планировать свои действия.
И зовут его - Watson.
для Akron:
Это ж только в фильмах искусственный разум создаётся внезапно каким-нибудь сумрачным гением.
А вот что творится в головах у генералов, имеющих не только доступ к ядерному оружию, но и к разработке военного искусственного разума, которая после боевого применения слетит с катушек в результате многочисленных повреждений, нанесенных противником (ведь раз боевой искусственный разум есть у одной стороны, может быть и у другой?).
Которые программа может и обойти.
Насчёт того, что там программа может обойти. Вот у человека есть программа - стучит сердце. Офигенно ты её можешь обойти? Так и с ИИ. Это может быть отдельный функционал на ROM, и фиг с ним что сделаешь. И не обойдёшь и не изменишь.
для FireSwarm:
Вот у человека есть программа - стучит сердце. Офигенно ты её можешь обойти?
Искусственное сердце.
Искусственное сердце.
Ну это уже хардварное вмешательство. Если ИИ будет иметь манипуляторы, способные вместо заводской ROM подсунуть свою - то да. Но ведь можно такой возможности и не давать.
Слава Скайнету!
курите термин - сингулярность
есть философская, математическая, гравитационная, технологическая.
последняя - технологическая сингулярность — предполагаемый некоторыми исследователями короткий период чрезвычайно быстрого технологического прогресса; - явно про наше время.
а еще - "термин «Сингулярность» предложил Вернор Виндж в 1993 году, высказав идею о том, что когда человек создаст машину, которая будет умнее человека, то с этого момента история станет непредсказуемой, так как невозможно предсказать поведение интеллектуально превосходящей системы. Исходя из темпов развития электроники, он предположил, что это произойдёт в первой трети XXI века"
такая ..., малята
Может лучше общество кибернетизировать? а не искусственные мозги создавать?
1|2|3|4|5|6|7|8|9|10|11
К списку тем
2007-2025, онлайн игры HeroesWM