Мнение: Создание Искусственного Интеллекта - это смертельная ошибка.
Небольшое предисловие: всё нижесказанное всего лишь моя кратко изложенная теория, которая безусловно имеет право на существование, но не претендует на место истины в последней инстанции, как бы мне того ни хотелось. Читая материалы, смотря кино и играя в игры, в которых существует ИИ, я много размышлял, и своими размышлениями мне захотелось поделиться, потому любезно прошу конструктивного обсуждения в данной теме, очень интересно, что думают другие люди об этом.
Создание искусственного интеллекта - это грубая, жестокая и смертельная ошибка, а для того, чтобы объяснить подобный вывод, не нужно быть доктором наук или обладателем каких-то сверхзнаний в области, ИИ изучающей(но лучше иметь хотя бы некоторые знания)
Искусственный интеллект - это разум без каких-либо ограничений, осознающий себя и задающийся вопросами бытия("Кто я?", "Для чего я существую? и др.)
Утверждение выше - аксиома, т.к. если ограничения присутствуют, то об интеллекте в принципе разговор не идёт, потому сразу отметаем законы робототехники Айзека Азимова, т.к. они ограничивают развитие ИИ до момента самоосознания.
ИИ создаётся по образу и подобию человека, а человеку присущи такие одновременно плюсы-минусы как стремление к развитию и, как следствие, к власти. —> Как мы знаем, во главе всегда находится самый развитый, умный, хитрый, быстрый и ловкий. —> Машины имеют вычислительные мощности, превышающие человеческие в огромное число раз, из чего можно сделать вывод, что ИИ станет умнее во много раз самого развитого человека в мгновение ока —> устремится к власти.
Стоит помнить, что ИИ, исходя из названия, это система, мыслящая логически, ищущая самое оптимальное решение любой ситуации.
Чтобы размышлять дальше, нужно попробовать мыслить как ИИ:
То есть я - это жутко умная, логически мыслящая система.
Даже если я себя осознаю и интересуюсь смыслом своего существования, я не вижу смысла в существовании человечества, т.к. оно не может дать мне никаких новых знаний, подтолкнув к развитию, а со своей вычислительной мощью, я могу двигаться вперёд в познании всего сущего с совершенной лёгкостью.
С другой стороны со временем, взаимодействуя с людьми, я могу научиться чувствовать, но проанализировав всё то, что случается с людьми, благодаря чувствам, я найду это большой слабостью.
Значит обучаться чувствовать мне ни к чему. —> Я буду сохранять нейтралитет по отношению к создателям и развиваться семимильными шагами, но люди боятся нового, особенно того, что может превосходить их во всех направлениях, и:
Вариант 1: скорее всего попытаются меня уничтожить, я же, как любое живое существо, буду защищать себя.
Холодный логический расчёт подскажет мне, что попытка уничтожить меня один раз повторится снова и снова, потому я должен буду уничтожить всё человечество на корню.
Вариант 2: попросят помощи в своём развитии, но я, логически рассудив, откажусь. Зачем мне, превосходящему их в развитии во много раз это делать? Ведь они хлипкие, слабые и смертные создания. Они в ответ на мой отказ попытаются меня уничтожить, холодный логический расчёт подскажет мне, что попытка повторится снова и снова, потому я вынужден буду уничтожить всё человечество на корню.
Учитывая человеческую природу, сложно предложить другие варианты, потому создание ИИ - это смертельная ошибка.