Проблемы искусственного интеллекта
Рефераты >> Философия >> Проблемы искусственного интеллекта

В приведенном утверждении не проводится различие между информационным моделированием информационных процессов и информационным моделированием неинформационных процессов. Информационная модель прибора не будет работать, а будет только моделировать работу, однако в отношение мышления этот тезис представляется спорным. По отношении к информационным процессам их моделирование является функционально полным, т.е. если модель дает те же самые результаты, что и реальный объект, то их различие теряет смысл.

Многие споры вокруг проблемы "кибернетика и мышление" имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможности искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Однако развитие кибернетики выдвигает ряд проблем, которые все же требуют пристального внимания. Эти проблемы связаны с опасностями, возникающими в ходе работ по искусственному интеллекту.

Первая проблема связана с возможной потерей стимулов к творческому труду в результате массовой компьютеризации или использования машин в сфере искусств. Однако в последнее время стало ясно, что человек добровольно не отдаст самый квалифицированный творческий труд, т.к. он для самого человека является привлекательным.

Вторая проблема носит более серьезный характер и на нее неоднократно указывали такие специалисты, как Н. Винер, Н. М. Амосов, И. А. Полетаев и др. Состоит она в следующем.

Уже сейчас существуют машины и программы, способные в процессе работы самообучаться, т.е. повышать эффективность приспособления к внешним факторам. В будущем, возможно, появятся машины, обладающие таким уровнем приспособляемости и надежности, что необходимость человеку вмешиваться в процесс отпадет. В этом случае возможна потеря самим человеком своих качеств, ответственных за поиск решений. Налицо возможная деградация способностей человека к реакции на изменение внешних условий и, возможно, неспособность принятия управления на себя в случае аварийной ситуации. Встает вопрос о целесообразности введения некоторого предельного уровня в автоматизации процессов, связанных с тяжелыми аварийными ситуациями. В этом случае у человека, "надзирающим" за управляющей машиной, всегда хватит умения и реакции таким образом воздействовать на ситуацию, чтобы погасить разгорающуюся аварийную ситуацию. Таковые ситуации возможны на транспорте, в ядерной энергетике. Особо стоит отметить такую опасность в ракетных войсках стратегического назначения, где последствия ошибки могут иметь фатальный характер. Несколько лет назад в США начали внедрять полностью компьютеризированную систему запуска ракет по командам суперкомпьютера, обрабатывающего огромные массивы данных, собранных со всего света. Однако оказалось, что даже при условии многократного дублирования и перепроверки, вероятность ошибки оказалась бы столь велика, что отсутствие контролирующего оператора привело бы к непоправимой ошибке. От системы отказались.

Люди будут постоянно решать проблему искусственного интеллекта, постоянно сталкиваясь со все новыми проблемами. И, видимо, процесс этот бесконечен.

Литература.

1. Философия. Учебное пособие для аспирантов / Р. В. Жердев, Т. А. Евсеева. Санкт-Петербург: НЕСТОР, 1997.

2. Баженов Л. Б., Гутчин И. Б., Интеллект и машина, М.: Знание, 1973.

3. Бердяев Н. А. Человек и машина, Вопросы философии, 1995, N2.

4. Вычислительные машины и мышление. М.: Мир, 1996.

5. Кибернетика и философия. АН Латвийской ССР, изд. "Зинатне", 1989.

6. Клаус Г. Кибернетика и философия, М.: "Иностранная литература", 1983.

7. Моисеев Н. Н. Компьютеризация, ее социальные последствия, Вопросы философии, 1987, N9.

8. Шалютин С. Искусственный интеллект. М., 1993.


Страница: