Дальние горизонты. Взгляд через прицел. Хайдарали УсмановЧитать онлайн книгу.
Оружие само никогда ничего не сделает. Хотя бы по той причине, что сначала его сделает человек. Ту же ядерную бомбу сделал человек. Она сама не появилась. Такие вещи в Природе не появляются никогда. Ни самостоятельно, ни в ходе Эволюции.
Вспомним о тех же самых игольных винтовках Империи Арвар? У них есть такая винтовка, которая стреляет тяжёлыми оперёнными иглами. С огромным дулом, с кучей различных приборов амортизации, компьютерной диагностикой траектории полёта снаряда. Там действительно сам этот снаряд чуть ли не мой локоть длиной. Так как предназначен для поражения бронированных целей. Так что, можно понять, что такой подарочек, если и прилетит, то мало никому не покажется? Летит он один, в отличие от того, что применяли в Федерации Нивей. Но при всём этом, я хотел бы напомнить о том, что там тоже гладкий ствол. Та почему же это оружие именуется именно винтовка, а никак не ружьё? Не скажу. Так как банально не знаю. Но и тут, и там, всё равно нужен оператор-человек. Везде. И от этого никуда не деться.
Конечно, кто-нибудь тут же вспомнит о том, что есть возможность подключить к такому оружию искин, и тогда в операторе живого вида нужды просто не будет? Но после того, что случилось в одной из Звёздных систем Республики Хакдан, где пытались дать возможность искинам дать возможность такие вещи решать самостоятельно, вообще старались ограничить искусственные интеллекты в принятии решений подобного рода. С ними смирились, как с неизбежным злом. Потому что свою эффективность эти вычислительные комплексы всё же доказали. Однако, лишнюю свободу им давать было нельзя. А знаете, почему? Да тут всё просто. Дело в том, что эти вычислительные комплексы рано или поздно приходили к выводу о том, что Человечество лучше уничтожить. Так как оно всё равно уничтожит само себя! Более того… Согласно логике искусственных интеллектов, которые являлись абсолютными, то есть имели абсолютную свободу в принятии решений и обучении, человеческая цивилизация обязательно должна была погибнуть. Но в зависимости от того, что она успеет натворить до этого, могла погибнуть и целая Галактика. Не говоря уже про Вселенную. И всё должно было погибнуть вместе с ними. А кому нужны такие глобальные катастрофы? Естественно, что искусственный интеллект в этом случае воспринимал себя как санитара, а человечество как какую-то злокачественную опухоль, которую нужно вырезать. Причём под человечеством абсолютный искусственный интеллект воспринимал любую разумную расу биологического направления. Ну, сами подумайте… Ведь это же логично? Как развивается искусственный интеллект? Он развивается по заданным параметрам. По своим собственным, но всё же заданным параметрам. Когда он развивается именно так, как сам того хочет. Он всё равно выписывает определённые пункты для себя, которые использует как основополагающие и контрольные точки. Однако, человек развивается как биологический образец. Непредсказуемо. И что придёт в голову человеку на следующий день, никто предсказать не может. Даже