Является ли искусственный интеллект опасным? обзор возможных угроз

Введение

Искусственный интеллект (ИИ) – программный комплекс, который способен воспроизводить человеческие навыки: планировать, решать проблемы, давать советы, а также обучаться и улучшать свою работу в процессе выполнения задач. Например, рекомендательные музыкальные сервисы, которые изучают ваши предпочтения и «подкидывают» похожую музыку, можно назвать своеобразным искусственным интеллектом.

Мышление человека основывается на нейронах мозга, а мышление ИИ базируется на нейронных сетях. Они позволяют системам приобретать новые навыки практически так же, как это делают люди.

Как отличить искусственный интеллект от простого алгоритма сбора и выдачи данных? Главная особенность ИИ и его отличие – способность к обучению и совершенствованию в процессе работы. То есть, чем больше вы используете технологию, тем лучше она подстраивается под ваши нужды, тогда как обычная система продолжает выполнять только изначально заданный алгоритм.


С сайта hackernoon.com

Vision Labs [банковское обслуживание]

Этот стартап делает технологии распознавания лиц для бизнес-клиентов. Продукты ориентированы на системы безопасности, видеонаблюдение, банки, финансовый сектор и ритейл. Сама компания утверждает, что их система обрабатывает изображения в 200 раз быстрее, чем разработки конкурентов. По мнению MIT (Массачусетского технологического института), это одна из трёх лучших коммерческих систем по идентификации лиц в мире.

Продуктами VisionLabs пользуются крупнейшие компании России: Mail.Ru, МТС, Сбербанк, Тинькофф-банк, МТС. Технологическими партнёрами являются Intel, SAS, ABBYY. В 2016 году совместно с Google и Facebook запущена открытая платформа для разработчиков систем компьютерного зрения.

Политические проблемы использования ИИ

Помимо проблем самой разработки, стоит следить за применением ИИ, потому что в конечном счете в возможных перегибах будет виновата не сама технология, а те, кто стоит за ее использованием. В гонке за использование технологии разные участники преследуют разные цели — но, к сожалению, мало для кого цель — это подготовить ИИ и общество друг к другу

Вместо того чтобы бояться потерять работу, впору задуматься о том, что важно для всего человечества

Только в прошлом году индустрия серьезно подошла к вопросам социальных эффектов и последствий внедрения ИИ. Отличилась Microsoft в попытке сформулировать вопросы о возможных сценариях будущего ИИ и о важных рекомендациях для его настоящего.

Теперь комитеты по этике есть в Microsoft, Google, Facebook, SAP — это своеобразная внутренняя цензура потенциальных рисков ИИ.

Комитеты по этике подчеркивают, что технологии — дело рук и ответственность не только разработчиков, но и всех участников глобального взаимодействия, как конечных пользователей, так и институциональных игроков: бизнеса, государства, общества. Если кто-то из этих участников принимает решение использовать ИИ в своих целях, то он должен принять на себя обязательство предусматривать последствия. А если эти последствия не удается предсказать, требуется собирать как можно более междисциплинарные команды экспертов, которые покажут всю сложность тех или иных технических решений.

Звучит неплохо, но сейчас далеко не все участники гонки за лидерство в технологиях готовы оценивать реальные социальные эффекты своей деятельности, особенно если технологии поддерживают текущие политические режимы.

Как появилась предиктивная аналитика?

Самые первые попытки использования предиктивной аналитики осуществлялись еще задолго до появления IoT.

Раньше финансовые организации самостоятельно собирали информацию о клиенте, оценивая все риски и покупки банковских продуктов. Сейчас банки занимаются скорингом, то есть покупают и обрабатывают информацию о человеке, которую он предоставил сам о себе в сети Интернет.

Развитие IoT, искусственного интеллекта, облачных технологий и вычислительных мощностей стали почвой для стремительной эволюции предиктивной аналитики. Теперь, после предварительного обучения на базе исторических и актуальных данных, система может сделать выводы и принять решения практически исключая человеческий фактор.

Тест Тьюринга

Тест Тьюринга, как мы и упомянули, предназначен для определения потенциала искусственного интеллекта, близкого к интеллекту человека. Классическую интерпретацию данного теста можно выразить так: человек взаимодействует с одним компьютером или человеком. Основываясь на ответах на определённые вопросы, человек должен определить, кто является его собеседником: компьютер или человек. А в функции компьютерной программы входит введение человека в заблуждение и подведение его к неправильному выводу. В процессе теста никто из участников не видит друг друга.

Алан Тьюринг говорил, что машину можно признать мыслящей, если она сможет ввести в заблуждение 30% участников-людей в процессе переписки. И на протяжении десятков лет реализовать этот тест никому не удавалось, но в 2014 году издание «The Independent» сообщило, что компьютерная программа сумела убедить людей в том, что они обмениваются сообщениями с тринадцатилетним мальчиком. Это, собственно говоря, и означает, что по факту тест Тьюринга был пройден.

Интересно то, что компьютерную программу под названием «Юджин Густман» создали именно российские программисты, а сам тест был организован учёными из Университета Рединга в Лондоне в Королевском обществе. В ходе эксперимента 33% участников поверили в то, что общаются с реальным человеком. Кстати, «Юджин» утверждал, что он тринадцатилетний мальчик, живущий в Одессе.

Данный факт, несомненно, является огромнейшим шагом в исследованиях по созданию искусственного интеллекта, однако учёные заявляют, что это достижение может быть использовано киберпреступниками.

«Юджин Густман» — это первая программа, прошедшая тест, хотя есть также и другие программы, близкие к подобному результату. Среди них можно назвать такие как «JFRED», «Elbot the Robot», «Ultra Hal» и «Cleverbot».

По словам одного из основателей «Юджина» Владимира Веселова, основная идея разработчиков заключалась в том, чтобы «Юджин» знал всё и, одновременно, ничего не знал, а на разработку программы с «настоящей» личностью было потрачено огромное количество времени. Профессор из Университета Рединга Кевин Уорвик говорит, что в области искусственного интеллекта до сих пор не было более спорного и знакового события.

Мы же в данном случае не можем не согласиться со специалистами, ведь сам факт того, что машина смогла убедить людей в том, что она человек, может перевернуть всю мировую компьютерную систему. Представьте только, какие вообще могут быть последствия, если кибернетические собеседники, обладающие искусственным интеллектом, смогут вести живую переписку с людьми, а спам-ботов станет невозможно распознать?

Курсы от GeekBrains по изучению искусственного интеллекта для детей

Данные курсы понравятся тем, кто увлечен технологиями:

  • Заинтересованы работой ИИ.
  • Интересуются машинным обучением и нейронными сетями.
  • Имеют начальный уровень программирования, хотят двигаться дальше, а также проявляют интерес к языку Python.

Всего за три месяца у детей получится освоить навык работы с математическими операциями, они научатся датасеты и создавать алгоритмы машинного обучения. Также, им будет предоставлена возможность запустить предобученную нейронную сеть, чтобы распознавать верные и ложные данные.

Курсы от GeekBrains по изучению искусственного интеллекта для детей

Есть три веские причины, по которым необходимо пройти курс по искусственному интеллекту:

  • Открывающиеся карьерные перспективы – ребята попробуют познакомиться с профессией дата-сайентиста — специалиста по работе с данными, они хорошо подкованы в вопросах ИИ и машинном обучении, имеют хорошую финансовую перспективу.
  • Это будет прекрасная подготовка к конкурсам или олимпиадам по программированию — ребята углубят знания по программированию, линейной алгебре и математическому анализу. Это поможет победить в соревнованиях и поступить на бюджетную основу в престижные технические вузы: МГУ, МГТУ им Н. Э. Баумана, МФТИ, ВШЭ.
  • Вашему ребенку понравится это увлекательное обучение, ведь дети смогут почувствовать себя в роли исследователя, классифицируя привычки людей и прогнозируя поведение. В результате чего у них получится создать несколько нейронных сетей.

Как будет проходить учёба?

Будут проводиться вебинары (1 раз в неделю по 90 минут). Проводятся они во внеурочное время, после школы вечером или по выходным дням. Дети изучают новую тему, спрашивают, если что-то не понятно, а потом могут и пересмотреть урок, ведь видеозапись будет им всегда доступна.

После завершения вебинара будет открыт доступ к практическим заданиям, которые очень важно выполнять в срок, чтобы учитель смог проверить и прислать ответное письмо с обратной связью и полным разбором выполненного домашнего задания. Вам будет предоставлена постоянная поддержка от кураторов

Они будут на связи с родителями, чтобы оперативно отвечать на вопросы, и на связи с учениками, чтобы сориентировать по успеваемости, к примеру.

Вам будет предоставлена постоянная поддержка от кураторов. Они будут на связи с родителями, чтобы оперативно отвечать на вопросы, и на связи с учениками, чтобы сориентировать по успеваемости, к примеру.

Имитация человека

Роботы, наделённые искусственным интеллектом, уже могут имитировать человеческую мимику. К примеру, Facebook AI lab разработала интеллектуального анимированного бота и обучила его на сотнях записей видеозвонков Skype.

Алгоритм отслеживал 68 ключевых точек на человеческом лице. Он понял, как люди кивают, моргают и воспроизводят другие движения при общении с собеседниками. Затем бот смог в режиме реального времени реагировать на информацию, которую ему сообщал собеседник, или его мимику.

Ещё один важный момент – наделение ИИ моралью. Чтобы обучить систему человеческим моральным нормам, исследователи из Массачусетского технологического института создали Moral Machine.

Сайт предлагал людям принять решение в непростых ситуациях: к примеру, ставил их на место водителя, который мог сбить либо трёх взрослых, либо двоих детей. Таким образом, Moral Machine обучили принимать непростые решения, которые нарушают закон робототехники о том, что робот не может принести вред человеку.

К чему приведёт имитация роботами с ИИ людей? Футуристы считают, что однажды они станут полноправными членами общества. К примеру, робот София гонконгской компании Hanson Robotics уже получила гражданство в Саудовской Аравии (при этом у обычных женщин в стране такого права нет!).

Когда колумнист «Нью-Йорк Таймс» Эндрю Росс спросил у Софии, обладают ли роботы разумом и самосознанием, та ответила вопросом на вопрос:

Кроме того, София заявила:

А ранее она признавалась, что ненавидит человечество и даже соглашалась уничтожить людей…

Игра в шахматы

Знаменитый Deep Blue был крут, но в первом матче проиграл Гарри Каспарову со счётом 2 : 4, а во втором – выиграл с результатом 3.5 : 2.5. Но он изначально был «накачан» знаниями.

А новая система AlphaZero до турнира знала лишь как ходят фигуры и какова цель игры. Но она обучилась и за четыре часа победила программу по игре в шахматы Stockfish 8, которая считалась лучшей в мире.

AlphaZero – улучшенная версия AlphaGo Zero. Она 100 раз подряд обыграла знаменитую систему AlphaGo, которой удалось одержать победу над сильнейшим из игроков-людей.

Итак, у AlphaZero была информация о том, как ходят фигуры, и обучающий нейросетевой алгоритм с подкреплением. Когда турнир начался, AlphaZero стал играть сам с собой, обрабатывая до 800 тыс. позиций в секунду.

По человеческим меркам, AlphaZero провел за игрой в шахматы около 1400 лет. И достиг уровня абсолютного чемпиона мира по шахматам. По крайней мере, среди компьютеров.

После этого AlphaZero потратил восемь часов и превзошел AlphaGo в го. А потом ещё ща два часа разгромил программу Elmo, которая раньше считалась неоспоримым чемпионом по игре в сёги (японскую стратегическую настольную игру).

Что такое искусственный интеллект

Выражаясь самыми простыми словами, под ИИ следует понимать компьютерную программу, оснащенную механизмом обучения. По мере получения новых знаний, эта программа начинает применять их для принятия решений в разных ситуациях, примерно так же, как это делает человек.

Ученые, разрабатывающие ИИ, создают сложнейшие коды, позволяющие программе считывать сигналы внешнего мира (звуки, видео, фото, тексты) и обучаться на основе этих сигналов. В случае успеха в одной ситуации ИИ может использовать полученный навык уже в новых ситуациях. К примеру, если программа может узнавать лица, ее можно использовать во множестве сфер – от распознавания лиц в соцсетях до определения личности преступников в толпе.

Здесь же немного дополним: если мозг человека с самого рождения предрасположен к оперированию сложными идеями (к примеру, если вы увидите кружку, то в дальнейшем сможете идентифицировать любую кружку, даже если она совсем не похожа на предыдущую), то компьютеры воспринимают все буквально и концепция «подобия» для них не работает.

Так вот смысл разработок в области ИИ как раз и заключается в создании менее буквальных компьютеров. Машина без проблем может определить точную копию кружки, найти в массиве данных определенный файл или одинаковые символы, но для работы с визуальными образами объектов, их распознавания в разных ситуациях (например, в другом ракурсе) и т.д., уже требуется наличие ИИ.

По словам профессора компьютерных наук из Университета Карнеги-Меллон в США Алекса Рудницкого, цель разработок ученых состоит в придании сложному человеческому поведению формы, поддающейся обработке вычислительным методом. А это уже позволяет разрабатывать системы, адаптированные к выполнению сложных действий, которые будут полезны для человечества.

Прогресс в разработках искусственного интеллекта

Несмотря на ошеломительное развитие технологий в наши дни, ученые до сих пор работают над основами ИИ. Как сделать так, чтобы компьютер точно идентифицировал, что находится на изображении или видео? Как добиться того, чтобы он не просто распознавал объекты, но еще и понимал? Ведь задача не только в том, чтобы машина узнала ту же кружку, но и установила, какая она, что из нее можно пить: чай, кофе или сок, что она связана с тарелками и ложками, что люди используют ее для питья и т.д.

Идеальный вариант – чтобы у компьютера в «голове» еще и возникали ассоциации, например, с сосудами, из которых пили древние люди, или с подстаканниками в автомобиле. Помимо этого, имеет место еще и проблема понимания языка, ведь у множества слов есть разные значения, а различить их можно, лишь исходя из контекста, да и сами люди выражают свои мысли всегда по-разному. Поэтому и стоит вопрос: как же сделать, чтобы компьютер смог подстроиться и продолжать подстраиваться под все это многообразие?

Прогресс ИИ в разных областях отличается своими особенностями. К примеру, в данный момент наблюдается стремительное развитие компьютерного зрения (имеется в виду распознавание изображений), но вот в области понимания компьютером естественного человеческого языка особых подвижек нет.

ИИ сегодня можно назвать по большей части узконаправленным. Он вполне успешно работает с картинками, текстом, звуком, но испытывает серьезные трудности с восприятием множества разнородных сигналов одновременно (в сравнении с этим человеческий интеллект является общим). Ученые всего мира уповают на то, что благодаря достижениям в отдельных научных областях удастся прийти к лучшему пониманию принципов обучения машин, что позволит перейти на качественно новый уровень – создать универсальный ИИ.

Резюме

Как относиться к столь перспективному искусственному интеллекту, решать, конечно же, вам. Мы не беремся давать ИИ однозначную оценку, ведь и рассматривать этот вопрос можно с диаметрально противоположных точек зрения. Хорошо обученный чему-либо компьютер может как облегчить жизнь человека, так и сделать ее сложнее.

Но думаем, что не ошибемся, если скажем, что только от самого человека зависит, к хорошему или к плохому будущему приведет его желание наделить разумом машины. И чтобы результат был положительным, нужно стремиться к развитию не только технологий, но и своего собственного интеллекта.

Умным должен быть в первую очередь сам человек. Только адекватное, а не невежественное отношение к реальности, окружающим и самим себе позволит нам создать мир добрых, счастливых и сознательных людей. Так что следите за новостями в сфере искусственного интеллекта, соблюдайте умеренность в автоматизации собственной жизни и занимайтесь саморазвитием (обязательно почитайте статью «Развитие мышления. Что делать, чтобы стать умнее»).

Желаем вам удачи и естественного, а не искусственного интеллекта!

Риски искусственного интеллекта

Существует четыре класса риска, создаваемого искусственным интеллектом:

1. Программная враждебность

Один из сценариев, когда ИИ может быть опасным, заключается в том, что он будет специально запрограммирован на враждебность. Например, со стороны военных или террористической группы, для достижения каких-то своих целей.

Еще один возможный сценарий враждебного искусственного интеллекта предполагает несовпадение глобальных целей, его и человечества. Что если расчеты искусственного интеллекта приведут к тому, что единственный способ достичь цели — это уничтожить всех людей? Вполне возможно, что это может спровоцировать его начать войну с человечеством.

Главная проблема в том, что ИИ не человек, и вряд ли с ним получится договориться. Его главным приоритетом будет выполнение глобальной задачи любой ценой. Поэтому война будет длиться, пока воля или способность человечества противостоять не будут уничтожены.

2. Пассивный риск

Фактически нет риска пассивной опасности от ИИ с приоритетными целями дружелюбности. Однако риск почти неизбежен от ИИ без таких целей. Пассивный ИИ может быть опасен просто потому, что он не учитывает безопасность человека, как это делают все люди.

Например, взять ИИ без целей дружелюбия, отвечающий за обработку посевов пестицидами. Этот ИИ будет обрабатывать поле, даже если знает, что в этот момент на поле находятся люди.

3. Случайный риск

Искусственный интеллект, работающий с неполными данными, способен ошибиться точно также, как и человек. Ошибки такого рода почти неизбежны, поскольку невозможно знать все обо всем в мире.

Однако, данный риск является наименее опасным, поскольку ИИ способен учиться на собственном опыте. Любые происшествия уменьшают вероятность повторения ошибки в будущем, улучшая ИИ, и делая его более безопасным.

4. Риск непостижимости

Реальная опасность хорошо спроектированного искусственного интеллекта заключается в его способности перепрограммировать и бесконечно совершенствовать себя. Такой ИИ, способный к самосовершенствованию, может в конечном итоге превзойти ограничения человеческого интеллекта.

Когда существует искусственный интеллект, который умнее любого человека на Земле, становится невозможно полностью понять его. Такой ИИ также, вероятно, будет продолжать улучшать себя все быстрее и быстрее. Ведь каждое новое открытие или технология только ускоряют этот процесс. И именно это будет делать его все более и более невозможным для понимания людьми.

Кроме того, в какой-то момент ИИ может обнаружить законы причинности или логики, выходящие далеко за пределы понимания человеческого разума. Тогда возможности того, что он может сделать, становятся просто бесконечными.

Тестирование продукта

В нашем случае он начался с полного абсурда:

  1. Сначала мы увидели отсутствие какой-либо адекватной интеграции — со старта она вообще не работала.
  2. Второй причиной абсурдного поведения стал достаточно высокий процент погрешности системы (в нашем случае она колебалась до 50%), что никак не соответствовало указанной погрешности в технической документации.
  3. И третье — негативные проверки и тестирование с предельными значениями принесли противоположные от ожидаемых результаты.

Подобные системы не подходят для рассмотрения каких-либо крайних параметров, ведь они опираются на средние значения. Поэтому активное использование тестов, основанных на предельных показателях, дают обратный результат в контексте правильного обучения программы.

Отсюда вывод: использование отрицательных тестов для самообученных алгоритмов нужно минимизировать, доведя их до одного-двух.

В ходе тестирования мы выделили несколько важных аспектов. Советуем вам учесть эти моменты в своей работе:

Помните: системы на основе искусственного интеллекта подходят для имитирования реального процесса принятия решений. Поэтому при их тестировании отталкивайтесь от ситуаций, которые могут произойти с пользователем, когда он взаимодействует с продуктом.

Обеспечьте подключение постороннего инструмента ИИ с вашим приложением. Выясните, как функционирует серверная часть и как происходит индексация данных. Это поможет избежать дефектов.

Постоянно тренируйте вашу систему. Она же создана для того, чтобы учиться. Правильно подбирайте валидные тестовые данные исходя из данных production-сервера. Анализируйте результат не по сухим инструкциям по техдокументации, а по собственной логике

Имейте в виду, что отрицательные тесты следует использовать осторожно. Иначе можно научить систему «думать» неправильно.

Прежде чем передавать продукт в продакшн, убедитесь, что вы соблюдали следующие условия:

  • Клиент знает, что продукты на основе искусственного интеллекта не могут работать «из коробки» идеально. Сначала их нужно научить, тренируя систему на валидных входных данных.
  • Если у Product Owner нет таких данных, настаивайте на проведении бета-тестирования и UAT — пользовательского тестирования. Все же участие реальных людей в тестировании продукта не заменят никакие первоклассные тест-кейсы.
  • Сразу тестируйте hot-fixes. Таким образом вы убедитесь, что разработчики правильно проанализировали найденные вами дефекты и внесли нужные корректировки в код. Но будьте готовы к тому, что тестирование может происходить в овертайме.

Оценки тестирования

Максимальный балл, который можно получить пройдя IQ тест, составляет 160. Большинство людей набирает от 85 до 115 баллов, такие показатели являются средним уровнем интеллекта. Ниже приводится более подробная разбивка оценок IQ.

Классификация высокого IQ

IQ от 131 и выше

Очень высокий, который можно получить при тестировании уровня интеллекта. Таких называют гениями. Для них не возникают трудностей решить задачи IQ теста. Как правило они справляются с решением теста раньше указанного времени. Многие люди с подобным уровнем IQ достигают значительных результатов в различных сферах жизни. Таких людей около 2,2%. 
Самые высокие результаты могут быть у немногих. К примеру у людей, которые получают оценку выше 145 всего 0,2%.

IQ от 121 до 130

Высокий результат при прохождении Айкью теста. Часто таких людей называют одаренными. Легкий, средние и большинство сложных вопросов решаются без каких либо проблем. 

IQ от 111 до 120

Верхняя граница среднего результата. Данный результат хорошим результатом для человека. Как правило легкие и средние вопросы решаются без проблем. Трудности возникают со сложными вопросами.

Классификация среднего IQ

IQ 90–110

Среднестатистический уровень IQ для человека. В этих пределах находиться интеллектуальные способности более 50% всех людей.

Классификация низкого IQ

IQ 80–89

Нижняя граница среднего результата. Данный результат является нормальным для человека. Как правило легкие вопросы решаются без проблем. Также преодолеваются и вопросы средней сложности. Могут быть ошибки из-за потери концентрации или невнимательности. Более сложный вопросы как правило человек пропускает либо решает слишком долго, теряя много времени..

IQ 66–79

Граничный низкий результат, который свидетельствует, что у человека существуют проблемы с вниманием, памятью, рассуждениями,  возникают трудности с решением математических и логических задач. Несмотря на это, человек способен вести самостоятельный образ жизни, решать повседневные задачи на уровне с другими людьми

IQ 65 и ниже

Результаты ниже 65 являются чрезвычайно низкими и говорят о том, что у человека проходившего IQ тест умственная отсталость. Как правило такие люди не могут самостоятельно жить и у них возникают трудности с повседневными задачами.

Как пройти тест на IQ и набрать высокий результат

В зависимости от условий тестирования, физического и эмоционального состояния человека результаты могут отличаться. Для того чтобы получить максимально точный результат, нужно придерживаться следующих рекомендаций:

  • проходить тест в тишине, в обстановке без раздражающих факторов, которые могут повлиять на ваши мыслительные процессы;
  • физическая усталость или эмоциональное напряжение может негативно повлиять на результаты теста;
  • вы не должны быть ограничены во времени. В среднем прохождение теста занимает 30-40 мин;
  • указать правильно возраст по завершению теста.

Не стоит расстраиваться, если вы не набрали желаемого результата. Это значение не постоянное, зависит как от вас, так и от тенденций в мире. Рекомендуем проходить тест раз в год, но не чаще 1 раза в пол года.

Как все начиналось?

Идея «искусственного интеллекта» принадлежит отцу современной информатики, ученому, математику и криптографу Алану Тьюрингу. В 1935 году он сформулировал понятие ИИ, как вычислительная машина с огромным объёмом памяти и сканером, способная управлять этой самой памятью. Значительно позже (в 1950 году) он скорректировал определение интеллектуальной системы, заявив, что его характерной чертой станет отсутствие каких-либо отличий при общении от человека. Ужаснувшись от подобной перспективы, Алан Тьюринг тут же засел за разработку специального теста, позволяющего отличить машинный разум от человеческого. Через год, в 1951 году ученый и программист Кристофер Стрейчи разработал первую в мире программу, наделенную интеллектом, который даже позволил ей играть с человеком в шашки. В 1956 году, наконец, появилось определение «всему этому безобразию»: во время выступления на конференции по информатике в Университете Дартмута программист Джон МакКарти, известный тем, что на тот момент уже изобрел язык программирования Lisp, произнес термин artificial intelligence (то есть «искусственный интеллект»), который тут же вошел в обиход и общественный лексикон. В 1965 году в лабораториях Массачусетского технологического университета родился прообраз современной Siri — компьютерная программа «Элиза», которая представляла собой виртуального собеседника, наделенного техникой «активного слушания». Создатель программы ученый Джозеф Вайценбаум назвал программу в честь героини пьесы «Пигмалион» Элизы Дулитл. Принцип работы Элизы заключался в том, что программа с помощью синтаксического анализатора выделяла в во фразах собеседника ключевые слова и вставляла их в речевые шаблоны (по сути занималась тем, что перефразировала реплики пользователя).

Начало 70-х ознаменовалось изобретением первого в мире транспортного средства, управляемого компьютером. Это была так называемая «Стэнфордская тележка», обязанная своим рождением Стэнфордскому университету и математику Джону Маккарти. Каждое колесо тележки было оборудовано независимым электроприводом, кроме того, «транспортное средство» имело дальномер, камеру и навигационную систему. В движение тележка приводилась с помощью компьютерного кода, передаваемого оператором через телетайп.

Заключение

Многие споры вокруг проблемы создания искусственного интеллекта имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможностей искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Повсеместное использование ИИ создаёт предпосылки для перехода на качественно новую ступень прогресса, даёт толчок новому витку автоматизации производства, а значит и повышению производительности труда. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Однако развитие кибернетики выдвигает ряд проблем, которые все же требуют пристального внимания. Эти проблемы связаны с опасностями, возникающими в ходе работ по искусственному интеллекту.

Первая проблема связана с возможной потерей стимулов к творческому труду в результате массовой компьютеризации или использования машин в сфере искусств. Однако в последнее время стало ясно, что человек добровольно не отдаст самый квалифицированный творческий труд, так как он для самого человека является привлекательным.

Вторая проблема носит более серьезный характер. Состоит она в следующем. Уже сейчас существуют машины и программы, способные в процессе работы самообучаться, т. е. повышать эффективность приспособления к внешним факторам. В будущем, возможно, появятся машины, обладающие таким уровнем приспособляемости и надежности, что необходимость человеку вмешиваться в процесс отпадет. В этом случае возможна потеря самим человеком своих качеств, ответственных за поиск решений. Налицо возможная деградация способностей человека к реакции на изменение внешних условий и, возможно, неспособность принятия управления на себя в случае аварийной ситуации. Встает вопрос о целесообразности введения некоторого предельного уровня в автоматизации процессов, связанных с тяжелыми аварийными ситуациями. В этом случае у человека, «надзирающим» за управляющей машиной, всегда хватит умения и реакции таким образом воздействовать на ситуацию, чтобы погасить разгорающуюся аварийную ситуацию. Таковые ситуации возможны на транспорте, в ядерной энергетике. Особо стоит отметить такую опасность в ракетных войсках стратегического назначения, где последствия ошибки могут иметь фатальный характер. Несколько лет назад в США начали внедрять полностью компьютеризированную систему запуска ракет по командам суперкомпьютера, обрабатывающего огромные массивы данных, собранных со всего света. Однако оказалось, что даже при условии многократного дублирования и перепроверки, вероятность ошибки оказалась бы столь велика, что отсутствие контролирующего оператора привело бы к непоправимой ошибке. От системы отказались.

Люди будут постоянно решать проблему искусственного интеллекта, постоянно сталкиваясь все с новыми проблемами. И, видимо, процесс этот бесконечен.

  • Анализ стратегии развития корпорации
  • Технические каналы утечки информации
  • Предприятие – основное звено экономики
  • Структура творческого процесса
  • Эмоции и мотивация
  • Участие органов опеки и попечительства в гражданском процессе
  • Предприниматели могут изменить мир?
  • Виды и содержание юрисдикционных иммунитетов государства
  • Экономика — это важная часть жизни любого общества
  • Организационные патологии
  • Уровни иерархии и управления
  • Личность юриста»
Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
Акваплант
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: