Управление gpio через web. Управление линиями GPIO на Raspberry Pi. Порты gpio - особенности и управление

В мае 2017 года скончался полковник Станислав Петров. Этот офицер в 1983 году своими профессиональными действиями предотвратил ядерную войну. Во время его дежурства пришел сигнал со спутников наблюдения о старте нескольких ракет с территории США. Ядерная атака. Петров должен был принять роковое решение. В этой критической ситуации он мгновенно перепроверил информацию по другим источникам и принял решение, что это - ложная тревога. Возможный ответный ядерный удар не состоялся. Подобные ситуации бывали и в американских ядерных силах. И всякий раз, к нашему счастью, люди принимали верное решение.

А вот искусственный интеллект - какое он принял бы решение в такой ситуации? Человек ведь существо моральное. Станислав Петров осознавал цену своего решения с нравственных позиций. Ученые смогут впихнуть в искусственный интеллект мораль? Это первый вопрос. А второй: если этот искусственный интеллект будет сам развиваться, это саморазвивающаяся система, он, может быть, себе свою новую мораль придумает. И совсем не такую, как наша. И в этой его моральной системе, мы, люди, не окажемся лишними?

Когда была осознана колоссальная разрушительная мощь ядерного оружия, сразу заговорили о невозможности его применения. Цена будет слишком велика. А сейчас, когда человечество, возможно, стоит на пороге создания искусственного интеллекта, кто-нибудь обсуждает серьезно опасности и риски? Почти все пребывают в состоянии эйфории: какие новые возможности перед нами открываются! Может, и открываются, а может, и закрываются.

Еще совсем недавно это казалось фантастикой, и вот уже безнадежно устарело - бросать компьютерный чип в кипящую сталь в попытке предотвратить восстание машин теперь бесполезно, микропроцессоры куда более мощные, чем у Терминатора образца 1991 года. Сейчас повсюду искусственный разум стремится к человеческому, а люди, кажется, приняли грядущее уничтожение как нечто неизбежное.

Видео телеканала CNBC:

Ты хочешь уничтожить людей? Пожалуйста, скажи «нет!»

Ок, я уничтожу людей, - отвечает робот София.

У современного Терминатора черты лица актрисы Одри Хэпберн - по крайней мере, так говорят разработчики - робот София способна поддержать разговор, повторяет мимику человека, но когда шутит про уничтожение людей, почему-то не улыбается.

На этой неделе в торжественной обстановке София получила гражданство Саудовской Аравии - страны, которая вкладывает сотни миллионов долларов в развитие технологии искусственного интеллекта. Это передовое направление, без которого будущее уже не представляет себе не только крупный бизнес, но и правительства многих государств. Какие бы риски это будущее в себе ни таило. Потеря контроля над цифровым разумом лишь один из вариантов. Угроза может показаться не вполне конкретной - но футурологи готовы привести примеры.

«Два искусственных военных интеллекта в двух странах могут вступить в войну, которая продлится несколько миллисекунд и люди не успеют заметить, как они все будут уничтожены», - говорит футуролог Алексей Турчин.

Фантастика? Возможно, но локальная война двух компьютерных трейдеров уже однажды обрушила биржевые индексы - просто потому что боты друг за другом вдруг решили продавать акции. В результате этой виртуальной битвы совершенно конкретные люди потеряли много настоящих денег.

«Алгоритмы, которые были сделаны для того, чтобы приносить прибыль всем участникам, вдруг начали работать так, что они начали приносить убытки всем участникам, потому что были не предусмотрены последствия работы. А очень трудно предусмотреть все последствия работы искусственного интеллекта», - поясняет Алексей Турчин.

Программисты Фейсбука тоже не предполагали, что сетевые чат-боты, или попросту разговорные агенты, пройдут тест на коммуникацию с таким результатом: диалог на английском превратился в бессмысленный набор слов, а то и букв, но это для человека - цифровому разуму язык людей показался неудобным способом договориться. Другими словами - машина может лучше. И это еще одна угроза.

«Первое, что произойдет, это то, что очень многие люди потеряют работу из-за автоматизации и роботизации производства. Так, по некоторым оценкам, в США до 2030 года из-за этого могут быть ликвидированы около 47% рабочих мест», - говорит профессор теоретической философии в университете имени Иоганна Гутенберга Томас Метцингер.

Казалось бы, все это далеко и даже не очень скоро - но и в России искусственный интеллект уже лишил кое-кого работы - виртуальная помощница Инна заменила собой справочную службу Казанского Иннополиса.

«Мы автоматизировали на 100% все рутинные обращения и вот с 19 июня этого года Инна уже обработала чуть больше 15 тысяч обращений, на которые раньше отвечал живой человек, а теперь этот механизм отвечает автоматически», - рассказывает директор по маркетинговым коммуникациям города Иннополис Артем Фатхуллин.

Инна, конечно специалист в узкой области - ей, как и любой другой программе пока очень далеко до человека - но ключевое слово именно «пока».

«100 лучших экспертов мира в области искусственного интеллекта полагают, что между 2070 и 2100 годами, а возможно, и в 2050 году появится искусственный сверхразум, который будет действовать как минимум на уровне человека, а то и недосягаемо превосходить его. Вопрос состоит в том, что если саморазвивающийся искусственный интеллект когда-либо превзойдет когнитивную силу человека, то как нам сделать так, чтобы он оставался мирным и чтобы его цели совпадали с нашими», - говорит Томас Метцингер.

Ответа на этот вопрос на самом деле до сих пор не существует - человечество тратит миллиарды на развитие искусственного разума, как будто нарочно приближая тот день, кода он поймет, что создатели ему больше не нужны.

«Я часто использую такую аналогию - когда мы, например, расширяем дом, мы не советуемся с червяками, жуками и разными насекомыми на заднем дворе, перед тем, как начать стройку. Они же настолько ниже нас, что мы просто не обращаем на них внимания. Вот какой может быть разница между искусственным интеллектом будущего и человеком», - отмечает глава футурологического института Futurizon (Великобритания) Ян Пирсон.

Кто-то, конечно, может посоветовать футурологам надеть шапочку из фольги и спрятаться под стол - но главу компании Tesla Илона Маска точно не заподозришь в технофобии - с его-то проектами SpaceX или Hyperloop и серьезными инвестициями в создание нейросетей. Но именно он уже не раз предупреждал об опасности.

«Вы знаете, что у меня есть доступ к самым последним разработкам в области искусственного интеллекта. И я думаю, что людям действительно следует озаботиться этим. Может показаться, что я поднимаю панику, но пока человечество не увидит, как роботы идут по улицам и убивают людей, они не будут знать, как реагировать. Ведь это выглядит таким нереальным, но я уверен, что нам действительно стоит волноваться насчет искусственного интеллекта», - заявил Илон Маск.

Маск предлагает регулировать развитие технологии на государственном уровне - и в то же время своего рода аппаратный апгрейд мозга - с помощью нейросетей нового поколения, выходит, чтобы не отстать от машин будущего, человеку самому придется стать машиной.

Искусственный интеллект развивается куда быстрее, чем могли предположить его создатели - нас окружают миллионы устройств, которые по вычислительным способностям значительно куда умнее человека. Теперь представьте следующий этап, когда мозг станет частью этой сети: вроде возможности открываются безграничные - не нужно учить языки, вообще любые накопленные человечеством знания легко скачать прямо в голову, но с другой стороны человек фактически становится флэшкой. Какая уж тут индивидуальность или несвойственная машинам способность мыслить нестандартно! Да и вообще любую флешку можно отформатировать…

Сейчас нам только кажется, что мы способны обрабатывать все новые потоки информации из нескольких источников сразу - в реальности человек просто теряет элементарные способности, доверившись технологиям. Машины и так уже многое делают за нас - автомобили сами паркуются, поисковики в интернете готовы ответить на любой вопрос, виртуальные помощники сами звонят нашим друзьям. Лень как двигатель прогресса. Выходит, «двое из ларца» здорово поумнели с тех пор, как человечество открыло ящик Пандоры.

Вы что это, и конфеты за меня есть будете?

5 марта 2017 в 12:57

Будущее искусственного интеллекта

  • Искусственный интеллект ,
  • Перевод

Последствия и этические проблемы сильного ИИ

При каждом обсуждении ИИ всегда возникают две проблемы: как он повлияет на человечество, и как нам к нему относиться? Литературу всегда можно рассматривать как хороший индикатор мыслей и чувств, отражающий настроения людей, и в научной фантастике полно примеров этих проблем. Попытается ли достаточно передовой ИИ устранить человечество, как Skynet ? Или ИИ необходимо будет давать права и защиту, во избежание таких проявлений жестокости, какие встречаются в "A.I. Artificial Intelligence "?


Страшный ИИ

В обоих случаях смысл состоит в том, что с созданием настоящего ИИ придёт технологическая сингулярность . Технологическая сингулярность – период экспоненциального роста технологий, происходящий на небольшом временном отрезке. Идея в том, что ИИ сможет улучшать самого себя или производить более передовые ИИ. Так как это будет происходить быстро, кардинальные перемены могут случиться за один день, и в результате появится ИИ гораздо более совершенный, чем тот, что был создан человечеством. Это может означать, что в результате у нас появится сверхумный и недоброжелательный ИИ, или разумный ИИ, достойный обладать правами.

Недоброжелательный ИИ

Что, если этот гипотетический сверхумный ИИ решит, что человечество ему не нравится? Или же мы будем ему безразличны? Нужно ли бояться этой возможности и принимать меры предосторожности? Или же эти страхи – результаты безосновательной паранойи?

Сэндс считает: «ОИИ произведёт революцию, и его применение определи, позитивное это будет влияние, или негативное. Примерно так же расщепление атома можно рассматривать как обоюдоострый меч». Конечно, тут речь идёт только об ОИИ, а не о сильном ИИ. Что насчёт возможности появления разумного сильного ИИ?

Скорее всего, потенциала можно ожидать не от злонамеренного, а от индифферентного ИИ. Альберт рассматривает пример с простой задачей, поставленной ИИ: «Есть такая история, что владелец фабрики по производству скрепок задал ИИ вроде бы простую задачу: максимизацию производства. А затем ОИИ воспользовался своим интеллектом и придумал, как превратить всю планету в скрепки!»

Альберт отметает возможность, описанную в этом смешном мысленном эксперименте: «Вы хотите сказать, что этот ОИИ понимает человеческую речь, сверхумный, но ему недоступны связанные с запросом тонкости? Или, что он не сможет задать уточняющие вопросы, или догадаться, что превращение всех людей в скрепки – это плохая идея?».

То есть, если ИИ достаточно умён для того, чтобы понять и запустить опасный для людей сценарий, он должен быть достаточно умным для того, чтобы понять, что этого делать не стоит. Три закона робототехники Азимова тоже могут сыграть свою роль, хотя остаётся вопрос, можно ли будет реализовать их таким образом, чтобы ИИ не смог их поменять? А что насчёт благополучия самого ИИ?

Права ИИ

На противоположной стороне проблемы стоит вопрос, заслуживает ли ИИ защиты и получения прав? Если бы появился разумный ИИ, можно ли позволять человеку просто отключать его? Как к нему относиться? Права животных и сейчас очень спорные, и пока что нет согласия в том, обладают ли животные сознанием или разумом .

По-видимому, те же споры развернутся по поводу существ с ИИ. Будет ли рабством заставлять ИИ работать день и ночь на благо человечества? Должны ли мы платить ему за услуги? Что с этой оплатой будет делать ИИ?


Фильм плохой, идея хорошая

Маловероятно, что у нас в ближайшее время появятся ответы на эти вопросы, в особенности, ответы, устраивающие всех. «Как мы можем гарантировать, что у ИИ, сравнимого с человеком, будут такие же права, как у человека? Учитывая, что эта интеллектуальная система фундаментально отличается от человека, как мы можем определить фундаментальные права ИИ? Кроме того, если считать ИИ искусственной формой жизни, есть ли у нас право отнимать у него эту жизнь (отключать)? До того, как создать ОИИ, необходимо серьёзно продумать вопросы этики», – говорит Сэндс.

В то время, как продолжается исследование ИИ, эти и другие этические вопросы, несомненно, будут вызывать споры. Судя по всему, мы ещё довольно далеко от того момента, когда они окажутся актуальными. Но и сейчас уже для их обсуждения организовываются конференции .

Как поучаствовать

Исследование и эксперименты с ИИ традиционно находились в ведении учёных и исследователей из корпоративных лабораторий. Но в последние годы растущая популярность свободной информации и открытого кода распространилась даже на ИИ. Если вам интересно заняться будущим ИИ, для этого есть несколько способов.

Проводить самостоятельные эксперименты с ИИ можно при помощи доступного ПО. У Google есть

Искусственный интеллект – в последнее время одна из наиболее популярных тем в технологическом мире. Такие умы, как Элон Маск, Стивен Хокинг и Стив Возняк всерьез обеспокоены исследованиями в области ИИ и утверждают, что его создание грозит нам смертельной опасностью. В то же время научная фантастика и голливудские фильмы породили множество заблуждений вокруг ИИ. Так ли нам угрожает опасность и какие неточности мы допускаем, представляя уничтожение Земли Skynet, всеобщую безработицу или наоборот достаток и беззаботность? В человеческих мифах об искусственном интеллекте разобралось издание Gizmodo. Приводим полный перевод его статьи.

Это называли важнейшим тестом машинного разума со времен победы Deep Blue над Гарри Каспаровым в шахматном поединке 20-летней давности. Google AlphaGo победил на турнире по Го гроссмейстера Ли Седоля с разгромным счетом 4:1, показав насколько серьезно искусственный интеллект (ИИ) продвинулся вперед. Судьбоносный день, когда машины наконец превзойдут в уме человека, никогда не казался так близко. Но мы, кажется, так и не приблизились к осознанию последствий этого эпохального события.

В действительности, мы цепляемся за серьезные и даже опасные заблуждения об искусственном интеллекте. В прошлом году основатель SpaceX Элон Маск предостерег, что ИИ может захватить мир. Его слова вызвали бурю комментариев, как противников, так и сторонников этого мнения. Как для такого будущего монументального события, есть поразительное количество разногласий относительно того, произойдет ли оно, и, если да, то в какой форме. Это особенно тревожно, если принять во внимание невероятную пользу, которую может получить человечество от ИИ, и возможные риски. В отличие от других изобретений человека, у ИИ есть потенциал изменить человечество или уничтожить нас.

Трудно понять, чему верить. Но благодаря первым работам ученых в области вычислительных наук, нейробиологов, теоретиков в области ИИ, начинает возникать более четкая картина. Вот несколько общих заблуждений и мифов касательно искусственного интеллекта.

Миф №1: “Мы никогда не создадим ИИ с разумом сравнимым с человеческим”

Реальность: У нас уже есть компьютеры, которые сравнялись или превысили человеческие возможности в шахматах, Го, торговле на бирже и разговорах. Компьютеры и алгоритмы, которые ими руководят, могут становиться только лучше. Это лишь вопрос времени, когда они превзойдут человека в любой задаче.

Психолог-исследователь из университета Нью-Йорка Гари Маркус сказал, что “буквально каждый”, кто работает в ИИ, верит, что машины, в конце концов, обойдут нас: “Единственное реальное отличие между энтузиастами и скептиками – это оценки сроков”. Футуристы вроде Рея Курцвейла считают, что это может произойти в течение нескольких десятилетий, другие говорят, что потребуются века.

ИИ-скептики не убедительны, когда говорят, что это нерешаемая технологическая проблема, а в природе биологического мозга есть что-то уникальное. Наши мозги – биологические машины – они существуют в реальном мире и придерживаются основных законов физики. В них нет ничего непознаваемого.

Миф №2: “Искусственный интеллект будет иметь сознание”

Реальность: Большинство представляет, что машинный разум будет обладать сознанием и думать так, как думают люди. Более того, критики вроде сооснователя Microsoft Пола Аллена верят, что мы пока не можем достигнуть общего искусственного интеллекта (способен решить любую умственную задачу, с которой справляется человек), потому что нам не хватает научной теории сознания. Но как говорит специалист по когнитивной робототехнике Имперского колледжа Лондона Мюррей Шанахан, нам нельзя приравнивать эти две концепции.

“Сознание безусловно удивительная и важная вещь, но я не верю, что оно необходимо для искусственного интеллекта человеческого уровня. Если выражаться более точно, мы используем слово “сознание” для обозначения нескольких психологических и когнитивных признаков, которые у человека “идут в комплекте”, – объясняет ученый.

Умную машину, которой не хватает одного или нескольких подобных признаков, можно представить. В конце концов, мы можем создать невероятной умный ИИ, который будет неспособен воспринимать мир субъективно и осознано. Шанахан утверждает, что разум и сознание можно совместить в машине, но мы не должны забывать, что это две разных концепции.

То, что машина проходит тест Тьюринга, в котором она неотличима от человека, не означает наличие у нее сознания. Для нас передовой ИИ может казаться осознанным, но его самосознание будет не большим, чем у камня или калькулятора.

Миф №3: “Нам не стоит бояться ИИ”

Реальность: В январе основатель Facebook Марк Цукерберг заявил, что нам не стоит бояться ИИ, ведь он сделает невероятное количество хороших вещей для мира. Он прав наполовину. Мы извлечем огромную выгоду от ИИ: от беспилотных автомобилей до создания новых лекарств, но нет никаких гарантий, что каждая конкретизации ИИ будет доброкачественной.

Высокоразумная система может знать все о конкретной задаче, вроде решения неприятной финансовой проблемы или взлома системы вражеской обороны. Но вне границ этих специализаций, она будет глубоко невежественна и не сознательна. Система Google DeepMind эксперт в Го, но у нее нет возможностей или причин исследовать сферы вне своей специализации.

Многие из этих систем могут не подчинятся соображениям безопасности. Хороший пример – сложный и мощный вирус Stuxnet, военизированный червь, разработанный военными Израиля и США для проникновения и диверсии работы иранских атомных станций. Это вирус каким-то образом (специально или случайно) заразил российскую атомную станцию.

Еще один пример, программа Flame, использованная для кибершпионажа на Ближнем Востоке. Легко представить будущие версии Stuxnet или Flame, который выходят за пределы своих целей и наносят огромный вред чувствительной инфраструктуре. (Для понимания, эти вирусы не являются ИИ, но в будущем они могут его иметь, откуда и беспокойство).

Вирус Flame использовался для кибершпионажа на Ближнем Востоке. Фото: Wired

Миф №4: “Искусственный суперинтеллект будет слишком умен, чтобы совершать ошибки”

Реальность: Исследователь ИИ и основатель Surfing Samurai Robots Ричард Лусимор считает, что большинство сценариев судного дня, связанного с ИИ, непоследовательны. Они всегда построены на предположении, что ИИ говорит: “Я знаю, что уничтожение человечества вызвано сбоем в моей конструкции, но я все равно вынужден это сделать”. Лусимор говорит, что если ИИ будет вести себя так, рассуждая о нашем уничтожении, то такие логические противоречия будут преследовать его всю жизнь. Это, в свою очередь, ухудшает его базу знаний и делает его слишком глупым для создания опасной ситуации. Ученый также утверждает, что люди, говорящие: “ИИ может делать только то, на что его запрограммировали”, заблуждаются также, как и их коллеги на заре компьютерной эры. Тогда люди использовали эту фразу утверждая, что компьютеры не способны продемонстрировать ни малейшей гибкости.

Питер Макинтайр и Стюарт Армстронг, которые работают в Институте будущего человечества при Оксфордском университете, не соглашаются с Лусимором. Они утверждают, что ИИ в значительной мере связан тем, как его запрограммировали. Макинтайр и Армстронг верят, что ИИ не сможет совершать ошибок или быть слишком тупым, чтобы не знать, чего мы от него ожидаем.

“По определению, искусственный суперинтеллект (ИСИ) – субъект, с разумом значительно большим, чем обладает лучший человеческий мозг в любой области знаний. Он будет точно знать, что мы хотели, чтобы он сделал”, – утверждает Макинтайр. Оба ученых верят, что ИИ будет делать лишь то, на что запрограммирован. Но если он станет достаточно умен, он поймет, как это отличается от духа закона или намерений людей.

Макинтайр сравнил будущую ситуацию людей и ИИ с теперешним взаимодействием человека и мыши. Цель мыши – искать еду и убежище. Но она часто конфликтует с желанием человека, который хочет, чтобы его зверек бегал вокруг него свободно. “Мы достаточно умны, чтобы понимать некоторые цели мышей. Так что ИСИ будет также понимать наши желания, но быть к ним безразличным”, – говорит ученый.

Как показывает сюжет фильма Ex Machina человеку будет крайне сложно удерживать более умный ИИ

Миф №5: “Простая заплатка решит проблему контроля ИИ”

Реальность: Создав искусственный интеллект умнее человека, мы столкнемся с проблемой известной как “проблема контроля”. Футуристы и теоретики ИИ впадают в состояние полной растерянности, если их спросить, как мы будем содержать и ограничивать ИСИ, если такой появится. Или как убедиться, что он будет дружественно настроен в отношении людей. Недавно исследователи из Института технологий Джорджии наивно предположили, что ИИ может перенять человеческие ценности и социальные правила, читая простые истории. На деле, это будет куда более сложно.

“Предлагалось множество простых трюков, которые могут “решить” всю проблему контроля ИИ”, – говорит Армстронг. Примеры включали программирование ИСИ так, чтобы его целью было угождать людям, или, чтобы он просто функционировал как инструмент в руках человека. Еще вариант – интегрировать концепции любви или уважения в исходный код. Чтобы предотвратить ИИ от принятия упрощенного, однобокого взгляда на мир, предлагалось запрограммировать его ценить интеллектуальное, культурное и социальное разнообразие.

Но эти решения слишком просты, как попытка втиснуть всю сложность человеческих симпатий и антипатий в одно поверхностное определение. Попробуйте, к примеру, вывести четкое, логичное и выполнимое определение “уважения”. Это крайне сложно.

Машины в “Матрице” могли без проблем уничтожить человечество

Миф №6: “Искусственный интеллект нас уничтожит”

Реальность: Нет никакой гарантии, что ИИ нас уничтожит, или, что мы не сможем найти возможности контролировать его. Как сказал теоретик ИИ Элизер Юдковски: “ИИ ни любит, ни ненавидит вас, но вы сделаны из атомов, которые он может использовать для других целей”.

В своей книге “Искусственный интеллект. Этапы. Угрозы. Стратегии” оксфордский философ Ник Бостром написал, что настоящий искусственный суперинтеллект, после его появления, создаст риск больший, чем любые другие человеческие изобретения. Выдающиеся умы вроде Элона Маска, Билла Гейтса и Стивена Хокинга (последний предупредил, что ИИ может быть нашей “худшей ошибкой в истории”) также выразили обеспокоенность.

Макинтайр сказал, что в большинстве целей, которыми может руководствоваться ИСИ, есть веские причины избавиться от людей.

“ИИ может спрогнозировать, достаточно правильно, что мы не хотим, чтобы он максимизировал прибыль конкретной компании, чего бы это ни стоило клиентам, окружающей среде и животным. Поэтому у него есть сильный стимул, чтобы позаботится о том, что его не прервут, не помешают, выключат или не изменят его целей, поскольку из-за этого изначальные цели не будут выполнены”, – утверждает Макинтайр.

Если только цели ИСИ не будут точно отображать наши собственные, то у него будут достойные поводы не дать нам возможности остановить его. Учитывая, что уровень его интеллекта значительно превосходит наш, мы с этим ничего не сможем поделать.

Никто не знает, какую форму обретет ИИ и как он может угрожать человечеству. Как отметил Маск, искусственный интеллект может использоваться для контроля, регулирования и мониторинга другого ИИ. Или он может быть пропитан человеческими ценностями или преобладающим желанием быть дружественным к людям.

Миф №7: “Искусственный суперинтеллект будет дружелюбным”

Реальность: Философ Иммануил Кант верил, что разум сильно коррелирует с моральностью. Нейробиолог Давид Чалмерс в своем исследовании “Сингулярность: Философский анализ” взял известную идею Канта и применил ее к возникшему искусственному суперинтеллекту.

Если это верно… мы можем ожидать, что интеллектуальный взрыв приведет к взрыву моральности. Затем мы можем ожидать, что появившиеся ИСИ системы будут суперморальны также, как и суперинтеллектуальны, что позволит нам ожидать от них доброкачественности.

Но идея того, что развитый ИИ будет просветленным и добрым, по своей сути, не очень правдоподобна. Как отметил Армстронг, есть много умных военных преступников. Не похоже, что связь между разумом и моральностью существует среди людей, поэтому он поддает сомнению работу этого принципа среди других умных форм.

“Умные люди, ведущие себя аморально, могут вызывать боль гораздо больших масштабов, чем их более глупые коллеги. Разумность просто дает им возможность быть плохими с большим умом, она не превращает их в добряков”, – утверждает Армстронг.

Как объяснил Макинтайр, возможность субъекта достичь цели не относиться к тому, будет эти цель разумной для начала. “Нам очень сильно повезет, если наши ИИ будут уникально одаренными и уровень их моральности будет расти вместе с разумом. Надеяться на удачу – не лучший подход для того, что может определить наше будущее”, – говорит он.

Миф №8: “Риски ИИ и робототехники равнозначны”

Реальность: Это особенно частая ошибка, насаждаемая некритичными СМИ и голливудскими фильмами вроде “Терминатора”.

Если бы искусственный суперинтеллект вроде Skynet действительно захотел бы уничтожить человечество, он был не использовал андроидов с шестиствольными пулеметами. Гораздо эффективнее было бы наслать биологическую чуму или нанотехнологическую серую слизь. Или просто уничтожить атмосферу.

Искусственный интеллект потенциально опасен не тем, что он может повлиять на развитие роботетехники, а тем, как его появление повлияет на мир в принципе.

Миф №9: “Изображение ИИ в научной фантастике – точное отображение будущего”

Множество видов разумов. Изображение: Элизер Юдковски

Конечно, авторы и футуристы использовали научную фантастику, чтобы делать фантастические прогнозы, но горизонт событий, который устанавливает ИСИ, это совсем другая опера. Более того, нечеловеческая природа ИИ делает для нас невозможным знание, а значит и предсказание, его природы и формы.

Чтобы развлекать нас, глупых людишек, в научной фантастике большинство ИИ изображены похожими на нас. “Существует спектр всех возможных разумов. Даже среди людей, вы достаточно отличаетесь от своего соседа, но эта вариация ничто, в сравнении со всеми разумами, которые могут существовать”, – говорит Макинтайр.

Большинство научно-фантастических произведений, чтобы рассказать убедительную историю, не должны быть научно точны. Конфликт обычно разворачивается между близкими по силе героями. “Представьте, насколько бы скучной была история, где ИИ без сознания, радости или ненависти, покончил бы с человечеством без всякого сопротивления, чтобы добиться неинтересной цели”, – зевая, повествует Армстронг.

На заводе Tesla трудятся сотни роботов

Миф №10: “Это ужасно, что ИИ заберет всю нашу работу”

Реальность: Возможность ИИ автоматизировать многое, из того, что мы делаем, и его потенциал уничтожить человечество, две совсем разные вещи. Но согласно Мартину Форду, автору “На заре роботов: Технологии и угроза безработного будущего”, их часто рассматривают как целое. Хорошо думать об отдаленном будущем применения ИИ, но только если оно не отвлекает нас от проблем, с которыми нам придется столкнуться в ближайшие десятилетия. Главная среди них – массовая автоматизация.

Никто не ставит под сомнение, что искусственный интеллект заменит множество существующих профессий, от работника фабрики до высших эшелонов белых воротничков. Некоторые эксперты предсказывают, что половине всех рабочих мест США угрожает автоматизация в ближайшем будущем.

Но это не означает, что мы не сможем справиться с потрясением. Вообще, избавление от большей части нашей работы, как физической так и ментальной, – квази-утопическая цель нашего вида.

“В течении пары десятилетий ИИ уничтожит множество профессий, но это неплохо”, – говорит Миллер. Беспилотные автомобили заменят водителей грузовиков, что сократит стоимость доставки и, как следствие, сделает многие продукты дешевле. “Если вы водитель грузовика и зарабатываете этим на жизнь – вы потеряете, но все другие наоборот смогут покупать больше товаров на ту же зарплату. А деньги, которые они отложат, будут потрачены на другие товары и услуги, которые создадут новые рабочие места для людей”, – утверждает Миллер.

По всей вероятности, искусственный интеллект будет создавать новые возможности производства блага, освободив людей для занятия другими вещами. Успехи в развитии ИИ будут сопровождаться успехами в других областях, особенно в производстве. В будущем, нам станет легче, а не сложнее, удовлетворять наши основные потребности.



В продолжение темы:
Windows

Часть вторая : "Важнейшие характеристики каждого семейства процессоров Intel Core i3/i5/i7. Какие из этих чипов представляют особый интерес" Введение Сначала мы приведём...

Новые статьи
/
Популярные