Редагування Відредагуйте сторінку та натисніть Зберегти. Допомога, ПІСОЧНИЦЯ Вибір медіа-файлу FIXME **Ця сторінка ще не повністю перекладена. Будь ласка, допоможіть завершити переклад.**\\ //(видалити цей абзац після завершення перекладу)// == Freefall 2537 == **Socks, Spoons and Neural Nets**\\ [!0.987]2014-08-15 {cnav} {{cotan>2537.png}} @5,30,261,143 # ~ @50,15,291,60 # ~ @2,18,288,150 [bow]In nanotech, it's a "grey goo" scenario. On a larger scale, it's a "paperclip maximizer". An A.I. with that programmed goal will try to turn everything in its reach into paperclips or paperclip production. ~ @11,471,183,99 # ~ @111,486,153,20 # ~ @4,469,190,131 [bow]So what do you get with a system of autonomous robots that **ALWAYS** has human desires as its top priority? ~ @37,698,80,23 # ~ @57,690,97,23 # ~ @35,691,94,48 [flo]A human maximizer. ~ @22,833,99,42 # ~ @64,817,134,61 # ~ @17,816,135,104 [bow]Good news if you're a human. Bad news if you're anything else. ~ {{<cotan}} \\ Color by George Peterson\\ Bowman talks about several mental experiments leading up to the end-of-the-world scenario(nbsp)– [[enw>Grey slime|about uncontrolled growth]] [[http://wiki.lesswrong.com/wiki/Paperclip_maximizer|self-replicating nanobots]] ([[user>Mityai]]) Продовжити редагування після збереження Назва цього сайту, англійська, лише в нижньому регістрі Залиште це поле порожнімЗберегти Перегляд Скасувати Підсумок змін Примітка. Редагуючи ці сторінку, ви погоджуєтесь на розповсюдження інформації за такою ліцензією: CC Attribution-Noncommercial-Share Alike 4.0 International