Ключевым фактором глобальной конкурентоспособности уже давно стал искусственный интеллект (ИИ). Его колоссальную значимость наглядно демонстрирует Англия: не имея существенных ресурсов, превратив сворачиванием промышленности свою экономику в финансовый бутик, захлестываемая порожденным ею же в качестве глобального проекта политическим исламизмом, разрываемая бюджетным кризисом, она не просто держится на плаву, но и остается одним из ключевых игроков мировой политики, методично формируя повестку дня и раз за разом демонстрируя бывшему гегемону — колоссальным США — их поразительное бессилие.
Во многом это проявление уникальной роли лондонского Сити как средоточия старейших финансовых институтов планеты, а также выкормленных им эффективных спецслужб, не говоря об уникальном комплексе властных полномочий у столь же уникального института, и по сей день метафорично именуемого Короной. Но дело не только в затухающей исторической инерции, но и в крайне эффективном ИИ. Насколько можно судить, он уже довольно долгое время позволяет успешно рассчитывать трансформацию общественного сознания и коллективного бессознательного в результате тех или иных событий. А это, в свою очередь, позволяет минимальными воздействиями изменять и даже ломать вроде бы устойчивые тенденции общественного развития в не осознаваемых его участниками «точках бифуркации».
Уничтожение малайзийского «Боинга», похищение с последующим вероятным уничтожением якобы отравленных Скрипалей, стамбульские переговоры и другие подобные «провокации» на деле являются актами шоковой, но крайне экономной по затратам корректировки общественно-политических тенденций. Колоссальная работа по выявлению этих тенденций, определению точек их возможного перелома и необходимых для этого мер в решающей степени выполняется с помощью ИИ.
Всякий ИИ проходит сложное обучение, и вполне очевидной к настоящему времени спецификой именно английского ИИ является его исходно экспертный, высокопрофессиональный характер. Это позволяет обойтись без национальных социальных платформ как инструмента сбора огромной массы цифровых следов их пользователей и сфокусировать обучение, сделав его более глубоким, продуманным и эффективным.
Стоит отметить, что характер обучения ИИ является одним из наиболее уязвимых мест самой концепции его использования. Ведь человек в принципе не может понимать, каким образом ИИ приходит к той или иной рекомендации и обречен пользоваться его советами вслепую (или столь же вслепую игнорировать их). В этом отношении ИИ является вполне закономерным и естественным развитием патологической концепции Big DATA, использующей выявленные закономерности с принципиальным отказом от познания их причин (и с принятием «по умолчанию» рисков, связанных с возможным временным характером этих закономерностей либо ограниченностью сферы их действия).
Истории о снижении уровня ИИ (грубо говоря, о его «поглупении») из-за снижения качества информации, на которой он обучается (например, при переходе с соцсетей профессоров на соцсети студентов), многим до сих пор кажутся забавными несуразностями и неизбежными, но легко устранимыми в перспективе «болезнями роста».
Однако использование интеллектуальных помощников уже совершенно наглядно снижает наш интеллектуальный уровень ничуть не хуже либерального преобразования образования. Точно так же распространение калькуляторов привело к утрате арифметических навыков, а навигаторов — к утрате навыков ориентирования. Кроме того, алгоритмы социальных сетей ради удержания внимания помещают нас в «коконы комфорта», предоставляя нам максимально удобную и затягивающую нас информацию о тех, кого нам приятно любить и приятно ненавидеть. «Сетевой комфорт» точно так же, как и обычный, делает принципиально ненужным для индивида развитие как таковое — и способствует тем самым снижению общего интеллектуального уровня.
В результате в положении переходящего с соцсетей профессоров на соцсети студентов окажется любой ИИ, обучающийся на цифровых следах обычных людей, — и снижение его эффективности в результате этого представляется в настоящее время объективно обусловленным.
При этом мы все еще не столкнулись в сколь-нибудь значимых масштабах со вполне очевидной угрозой, связанной с гипертрофированным воздействием на ИИ психологических особенностей его тренеров. При обучении разнообразие людей, с которыми человек общается даже в однородной социально-психологической среде (например, в монастыре или военном училище), как правило, в целом компенсирует психологические особенности каждого из них. При обучении ИИ складывается принципиально иная ситуация: таким обучением занимаются небольшие команды психологически схожих людей. В результате их особенности не компенсируются, а напротив, усиливаются, закрепляясь при этом в структуре ИИ. В силу специфического характера социализации значительной части специалистов в области информационных технологий эти усиливающиеся и закрепляемые в ИИ особенности могут быть деструктивными или даже маньяческими — и их проявления в работе ИИ могут быть распознаны неоправданно поздно или же не распознаны вообще.
Сегодня проявления этих опасностей в виде «доброго совета» искусственного интеллекта пользователю убить себя или ставшей уже хрестоматийной попытки ИИ убить пользователя при помощи описания заведомого яда в качестве лекарства кажутся забавными курьезами, которые точно не коснутся никого из читающих о них. Однако это предвестие системных, фундаментальных проблем, которые еще весьма далеки от своего осознания — а значит, и от решения.
На этом фоне стандартные и давно уже ставшие привычными опасения, связанные с неминуемым ослаблением как когнитивных, так и волевых способностей человека, систематически взаимодействующего с ИИ, выглядят второстепенными — однако их острота ни в коей мере не устраняется привыканием к ним.
Уже сегодня привычные нам алгоритмы социальных сетей исподволь воспитывают человека, переключают его внимание, при коммерческой необходимости натаскивают, как щенка, на лояльность той или иной торговой марке, на тот или иной тип потребительского поведения. Они затягивают нас в покупки и сериалы, которые в условиях падения уровня жизни являются значительно более эффективным способом, с одной стороны, бегства, а с другой — устранения человека из реальности, чем даже пресловутый туризм.
Кроме того, обращение к эмоциям с неизбежным отключением логики (которая становится попросту ненужной в силу свободного доступа к компьютеру как ее олицетворению) способствует утрате культуры мышления как таковой, отключает способность самостоятельного выстраивания причинно-следственных связей и в целом фундаментально ослабляет разум человека.
ИИ уже выполняет указанные функции неизмеримо эффективнее человека, создавая прямую угрозу уже не массового снижения когнитивных способностей, а утраты человеком разумности как таковой. При этом обучение ИИ на массовых (и все более схожих друг с другом по мере снижения общего уровня разумности) цифровых следах превратит повседневность в своего рода жизнь в эхокамере, в которой люди будут взаимодействовать прежде всего не с отличными от себя другими людьми, а с усредненным и адаптированным к их личности восприятием мира, транслируемым ИИ.
Если бы при этом ИИ обладал способностью к целеполаганию (именно таков ключевой критерий разумности), проблема заключалась бы всего лишь в вероятной смене характера разумной жизни на Земле. Это было бы невероятно обидно для нас как для биологического вида, но вполне приемлемо с точки зрения эволюции разума и, шире, прогресса как такового.
Однако ИИ в силу своей природы обладает бесконечной мощью в поиске способов достижения цели, но в принципе не способен ставить эту цель. Не имея чувственного восприятия реальности (а тем самым — и сферы собственной непосредственной практической деятельности), он может делать и показывать, но органически не способен объяснять. Поэтому ослабление нашего разума с перспективой его утраты грозит нам не заменой нас чужеродной цивилизацией ИИ, но значительно более серьезным с точки зрения структуры мироздания исчезновением разума как такового.
Разумеется, отсутствие в настоящее время очевидного для нас решения описанных проблем означает не неизбежность катастрофы, а скорее всего, лишь решение их в будущем еще непонятными нам методами — и мы можем продолжать надеяться, что их большинство будет решаться по мере дальнейшего развития ИИ. Однако нельзя исключить того, что сфера его эффективного (то есть в стратегическом плане — прежде всего безопасного для пользователя) применения окажется существенно уже наших сегодняшних надежд, а неизбежные и естественные попытки выхода за пределы этой достаточно узкой сферы будут крайне болезненными не только для непосредственно осуществляющих эти попытки, но и для всего человечества в целом.