machines.riot.1Холивуд изобилства с филми, според които технологиите, които разработваме днес, един ден ще се обърнат срещу нас. Може би най-популярният от тях е "Терминатор". В него програмата с изкуствен интелект SkyNet, която контролира военната мощ на САЩ, се "самоосъзнава", приема човечеството като заплаха за съществуването си и решава да го изтреби. Така започва война между хората и машините, която дори Арнолд Шварценегер не успява да предотврати. При това на два пъти.

За повечето хора това е просто научна фантастика. Според някои учени обаче това е филм, чийто сценарий става все по-реален с всеки изминал ден. На това мнение са и група изследователи от Университета в Кембридж, които дори основаха Център за изучаване на рисковете за човешкото съществуване (CSER). Този център ще има грижата да "гарантира, че човечеството ще има дългосрочно бъдеще" и няма да създаде или използва технология, която ще доведе до неговото унищожение. Освен това има и за цел "да се увери, че "Кембридж" ще доживее своя хилядолетен юбилей". Университетът в момента е на 803 години.

Сред съоснователите на CSER е Жаан Талин, който е един от създателите и на свръхпопулярния софтуер за онлайн комуникация Skype. Другите двама учредители на центъра са Хув Прайс, професор по философия и Мартин Рийс, професор по космология и астрофизика. В центъра членуват още множество професори по различни науки, предимно от сферата на технологиите и философията, както и някои външни съветници.

Раждането на SkyNet

Идеята за машина, която ще надмине по интелигентност създателя си, а именно човека, не е плод на развинтеното въображение на холивудските сценаристи и любителите на световните конспирации. Всъщност това е прогноза, която датира още от 1965 г., а вероятно и от по-рано. Конкретно през 65-а година британският математик Ървинг Джон Гууд пише статия за сп. New Scientist, в която прогнозира, че в недалечно бъдеще човекът ще създаде "последното си изобретение". Това ще бъде свръхинтелигентна машина, която ще може да създава и генерира още познания. Благодарение на нея човекът няма да има нужда да работи и неговото оцеляване ще зависи изцяло от тази машина.

Днес прогнозата на Гууд изглежда напълно реалистична. Човечеството вече дори е поверило голяма част от критичните за съществуването си дейности на машини. Разликата е, че то все още има контрол над тях. Но разработките в сферата на изкуствения интелект продължават да напредват с все по-бързо темпо. Един сравнително семпъл пример е скорошният тест, при който алгоритми с изкуствен интелект са били използвани да прочетат 2.5 млн. статии от 498 англоезични онлайн издания. По този начин учените от университетите в Бристол и Кардиф установили, че мъжете са най-големите ползватели на новини, а политическите статии са най-малко четени. Според изследователите това е показателно за дисбаланса в нивото на информираност в обществото и липсата на интерес към важните за него въпроси. Алгоритмите направили и подробни анализи на това какъв тип издания се четат най-много и дори какъв словоред и кои думи предизвикват желаните реакции в читателите, съобщава онлайн изданието Science 2.0. Накратко, изкуственият интелект може да узнае повече неща за нас, отколкото ние самите подозираме, че можем, и е способен да го направи много по-бързо от нас.

Човечеството развива и множество други био- и нанотехнологии, които един ден могат да се окажат ключови не за спасяването на човешкия род, а за неговата кончина. "В един момент - този век или следващия, може да се изправим пред една от най-големите промени в човешката, а може би и космическата история. Това ще е моментът, когато интелектът излезе от ограниченията на биологията. Природата едва ли е очаквала появата на човека и затова и ние не трябва да приемаме изкуствения интелект за даденост", казва Хув Прайс в университетската публикация.

Неговите прогнози за опасностите, които са свързани с една свръхинтелигентна машина, не спират дотук. "Ние трябва много сериозно да приемем възможността, че с изкуствения интелект може да отворим "кутия на Пандора", която може да бъде пагубна", допълва той. И продължава, казвайки, че това трудно може да бъде предсказано дали и кога ще се случи и точно поради тази причина не трябва да бъде подценявано.

Реалният Джон Конър

Тревогите на Прайс до голяма степен са провокирани от работата на съоснователя на Skype Жаан Талин. През последните години той отделя голяма част от времето си на дискусии за потенциалните опасности, свързани с изкуствения интелект. Талин вярва, че е по-вероятно да умре от инцидент, свързан с дейността на изкуствен интелект, отколкото от раково или сърдечно заболяване.

Във филмовата поредица "Терминатор" спасителят на човечеството се казва Джон Конър. В реалния свят обаче е малко вероятно една личност да поведе всички към безусловна битка със софтуерния агресор. Човечеството днес е заменило еволюцията с технологичен прогрес. Този прогрес води до много предимства като бързина и дълготрайност на живота, но и до безпощадно унищожение на ресурси, смята Талин.

Не сме далеч от времето, когато компютърният интелект ще достигне човешкия и ще може да прави сам това, което в момента го прави зависимо от хората. А именно, да създава собствени програми и технологии. Тогава той ще има възможност да започне да се усъвършенствува. От този момент нататък човекът ще остане на заден план и ще зависи от действията на изкуствения интелект. "Представете си какво ще е да се съревноваваме за ресурси с доминиращия вид", допълва Прайс. Той дава за пример отношенията между горилите и човека. Последният не е агресивно настроен спрямо горилите, но контролира средата и използва ресурсите по начин, който води до прогресивното намаляване на тяхната популация.

Идеята на CSER не е да чака до последния момент, когато бунтът на машините вече е започнал под една или друга форма. Центърът не търси и един човек или организация, която да поведе човечеството в подобна битка. Желанието на неговите членове е да накара хората сериозно да приемат идеята, че се доближаваме момента, когато технологиите, които създаваме, ще имат пълния потенциал да заплашат собственото ни съществуване. "Трябва да инвестираме малко от интелектуалните си ресурси в преориентирането от някои вероятни лоши варианти към добри", казва Прайс.

Той признава, че някои от изложените концепции и прогнози може да изглеждат като измислици, плод на научната фантастика или на болен мозък. Но според него това е част от причината за създаването на CSER. Самият факт, че рисковете не се осъзнават, не се приемат като такива и не се подлагат на сериозни анализи, ги прави още по-опасни. Прайс се надява, че към центъра ще се присъединят още хора с качества на световно ниво, които ще си съдействат при определянето, изучаването и подготовката за предстоящите рискове и опасности, породени от технологичното развитие.

 

machines.riot
Източник: Капитал

Любопитно

"Хаосът се намира в изобилие тъкмо там, където някой се опитва да въведе ред. И хаосът винаги надмогва реда, защото е по-способен организатор." Тери Пратчет

Вход

Hypercube

Rotating Hypercube