Что такое слабый ИИ
Слабый ИИ, или Узкий ИИ, - это машинный интеллект, который ограничен определенной или узкой областью. Слабый искусственный интеллект (ИИ) имитирует человеческое познание и приносит пользу человечеству, автоматизируя трудоемкие задачи и анализируя данные способами, которые люди иногда не могут.
НАРУШЕНИЕ СЛАБЫХ ИИ
Слабому ИИ не хватает человеческого сознания, хотя он может имитировать его. Классическая иллюстрация слабого ИИ - мысленный эксперимент Джона Сирла в китайской комнате. Этот эксперимент говорит, что человек вне комнаты может иметь возможность разговаривать на китайском языке с человеком внутри комнаты, которому дают инструкции о том, как реагировать на разговоры на китайском языке. Человек в комнате, казалось, говорил по-китайски, но на самом деле, он не мог ни говорить, ни понимать ни слова из этого, если бы его не кормили. Это потому, что человек хорошо выполняет инструкции, а не говорит по-китайски. Может показаться, что у них Сильный ИИ - машинный интеллект, эквивалентный человеческому интеллекту, - но у них действительно только слабый ИИ.
Узкие или слабые системы ИИ не имеют общего интеллекта; у них есть определенный интеллект. ИИ, который является экспертом в том, чтобы рассказать вам, как проехать из пункта А в пункт Б, обычно не способен бросить вам вызов в игру в шахматы. И ИИ, который может притворяться, будто говорит с тобой по-китайски, вероятно, не сможет подмести тебя.
Слабый ИИ помогает превратить большие данные в полезную информацию, выявляя закономерности и делая прогнозы. Примерами могут служить новостная лента Facebook, предлагаемые Amazon покупки и Apple Siri, технология iPhone, которая отвечает на устные вопросы пользователей. Фильтры спама в электронной почте являются еще одним примером слабого ИИ, когда компьютер использует алгоритм, чтобы узнать, какие сообщения могут быть спамом, а затем перенаправляет их из папки «Входящие» в папку спама.
Ограничения слабого ИИ
Проблемы со слабым ИИ, помимо его ограниченных возможностей, включают возможность причинения вреда в случае сбоя системы - например, автомобиль без водителя, который неправильно рассчитывает местоположение встречного транспортного средства и вызывает смертельное столкновение - и возможность причинить вред, если система используется кто-то, кто хочет причинить вред - например, террорист, который использует машину для самостоятельного вождения, чтобы разместить взрывчатку в людном месте. Другая проблема заключается в определении, кто виноват в неисправности или недостатке конструкции.
Еще одной проблемой является потеря рабочих мест, вызванная автоматизацией растущего числа задач. Будет ли стремительный рост безработицы или общество найдет новые способы для людей быть экономически продуктивными? Хотя вероятность того, что большой процент работников потеряет свои рабочие места, может быть ужасающей, разумно ожидать, что в этом случае появятся новые рабочие места, которые мы пока не можем предсказать, поскольку использование ИИ становится все более распространенным.