Ездовой Крот
Весьма интересный ресурс - www.roboting.ru/
Дальше много-много знаков.
Оне Робаты и должны ваевать!"(с)
.....задумываешься не только над тем, как сделать, чтобы войны больше не
было, но и над тем, как что нас ждет, если это все-таки случится.
Думается,
что лучше всего представить это как некое столкновение умов. За
неимением под рукой большого количества умов для непосредственного
сталкивания ограничимся противопоставлением высказываний ряда авторов.
Причем неважно, кто что сказал – это просто палитра людских позиций.
Мечта промышленника: боевая авиация 6-го поколения в целом будет
основываться на определенном сочетании пилотируемых и беспилотных
самолетов.
Аргумент лоббиста: благодаря внедрению роботов, из военных действий
исключается самый важный фактор - присутствие на поле боя живых солдат
Логика юриста: в идеале война должна вестись таким образом, чтобы
впоследствии можно было выявить ответственных за смерть мирных людей,
погибших в ходе конфликта, и определить степень их вины. Поскольку
убийства, совершенные автономными роботами, не могут быть оценены с
этой точки зрения - понятие "ответственность" к ним в принципе
неприменимо, - разработка подобных машин должна быть запрещена по
этическим соображениям.
Данные прогнозистов: к 2020 году примерно каждый третий
военнослужащий США или образец вооружения/техники будут
роботизированными механизмами
Тезис правозащитника: Проблемы начинаются тогда, когда нужно
ответить на вопрос: кто именно ответственен за то, что робот ошибся и
убил мирного жителя, и кто должен понести наказание? А значит, убийства
по ошибке, совершенные роботами, станут принципиально ненаказуемы.
Первое правило идеального робота: не доверять роботам задач,
которые связаны со значительным риском для общества. Другими словами,
действия роботов должны быть предсказуемыми, а возможность катастроф
сведена к минимуму.
Взгляд футуриста: война будущего – это война гигантских комплексов, в
которых тесно переплетены робототехнические устройства и люди.
Мнение обычного человека: предположим, все страны сделают себе
армии из роботов. И вот случилась война. И одна армия роботов победила.
И что, люди будут сидеть сложа руки и ждать, когда их убьют? Армии
роботов можно рассматривать лишь как способ выиграть некоторое время на мобилизацию людских ресурсов
Что скажет психиатр:
война с помощью роботов – это воплощение идей Фрейда о вытеснении.
Пусть где-то там кто-то воюет – не только я не буду кнопочки нажимать,
а даже и забуду о таком неприятном событии, как война.
Ах, эти философы: чтобы исключить возможность превращения механических
солдат в военных преступников, американской армии и флоту требуется
помощь специалистов по этике. Они должны будут внушить механическим
убийцам правила этики, насколько это возможно.
Что скажут ученые: исследователь робототехники из университета штата
Джорджия Ronald Arkin уверен, что роботы могут стать прекрасными
бойцами. Его вывод: роботы могут иметь более высокую мораль, чем люди!
Им не нужно себя защищать, они погибают без эмоций, сохраняя до
последнего мгновения свои умственные способности. Но от них нельзя
ожидать хорошего поведения на полях сражений.
Любители высечь
море: немецкий философ Andreas Matthias требует разработать уголовный
кодекс для машин. Они должны отвечать за нанесенный человеку вред.
Значит и боевые роботы должны нести ответственность за случайные ошибки.
Статистика: на сегодняшний день созданием роботов военного
применения занимаются уже более сорока государств. Когда вооруженные
силы США в 2003-м вторглись в Ирак, в составе сухопутных сил вообще не
было роботов. К концу 2004 года на территории Ирака американские
военные использовали 150 роботов, год спустя их было 2400. А к началу
2009 года работало уже 12 тысяч роботов двух с лишним дюжин разных
специализаций.
Как оно есть на самом деле: независимо от того, насколько умными и
надежными можно сделать роботов, они все равно будут делать ошибки.
Мнение
специалиста: компьютеры и дальняя связь не только полностью лишают
человека ощущения аморальности его действий, но и вообще боли,
сопутствующей войне, - как физической, так и психологической.
Из
предвыборной речи: пока что никто из законодателей не задался всерьез
вопросами о том, а можно ли в принципе выдавать автономным роботам
лицензию на убийство?
Второе правило идеального робота: ни при
каких условиях не доверять роботам оружие, и/или не предоставлять им
управление вооружением.
Над чем надо подумать: сегодня специалисты-роботехники почти не
вспоминают о "старомодных и наивных" идеях Азимова. А если вдруг и
вспоминают, то лишь чтобы указать, что все его рассказы из цикла "Я,
робот" по сути своей демонстрируют внутренние противоречия и
ограничения основополагающих законов. При этом, однако, никто не желает
видеть одну очень существенную вещь - для Азимова изначально была
неприемлемой идея об автономных вооруженных роботах,
запрограммированных на умышленное нанесение вреда человеку, не говоря
уже об убийствах. В азимовском мире будущего такого не могло быть в
принципе. И если в нашем сегодняшнем мире всё иначе, это означает, что
с пониманием драгоценности человеческой жизни, а значит, и с основами
морали у современного общества большие трудности. Общество, не
считающее убийство аморальным, тяжко больно. И как его вылечить, пока
неясно.
---------------------------------------------------------
Благодетели или убийцы?
Первым человеком, погибшим из-за робота, является Роберт Уильямс. Уильямсработал на фабрике Ford. Робот-убийца должен был извлекать запасныечасти из корзины. Однако скорость его работы была недостаточной. 25января 1979 года Уильямс сам вынужден был доставать запчасть изкорзины. Можно ли было роботу терпеть подобное вмешательство?Манипулятор нанес человеку, оказавшемуся у него на пути, удар поголове. Удар оказался смертельным. Правда, производители роботазаплатили за отсутствие системам безопасности и предупреждения. Нокакими деньгами можно оценить стоимость человеческой жизни?
Двумя годами позже японец Кенджи Урада, работающий в компании Kawasaki, чинилробота. И что? Гидравлическая рука машины столкнула Ураду вмеханическую дробилку. И снова смерть!
2007год. Нападение робота на человека. Рабочий компании, расположенной ксеверу от Стокгольма, занимался обслуживанием сломавшейся машины дляпереноски камней. Думая, что отключил питание робота, мужчина подошел кнему. Однако машина внезапно заработала и схватила жертву за голову.Рабочему удалось освободиться, но он получил серьезные травмы, в томчисле сломал четыре ребра. Злой умысел? Обида? Реакция на поломку?
Что, говорите, робот – это бездушная машина? В том-то и дело. И от этого ещё страшнее…
В этом же году в Ираке беспилотный летательный аппарат “Охотник” (”Hunter”)уничтожил двух человек, сбросив на них бомбы. Из пушки по воробьям, таксказать. Аппарат был вызван военными для оказания поддержки с воздуха.Как заявил представитель подразделения, в котором использовался БПЛА,главная цель – это избавить наземные войска от контактов с противником.Надо полагать, что постепенно военные превратятся в куски сала, спомощью джойстика за домашним компьютером в игровом режиме уничтожающиереальных людей, в силу разных причин не имеющих такого оружия.
Втом же 2007 году огонь по своим открыла автоматическоекомпьютеризированное орудие “Эрликон GDF-005″. Это произошло вблизи отгородка Лохатла в Северной провинции ЮАР. Было убито11 человек и ранено15. Во время ежегодных учений ПВО по непонятной причине пушка началавращаться и вести беспорядочный огонь, пока не расстреляла все свои 500патронов. Пушка была разработана и сделана в Швейцарии. А говорят, чтомашины не имеют своих пристрастий! Как бы не так! Чисто машинноежелание – доводить дело до последнего патрона!
2008 год.81-летний австралиец покончил с жизнью с помощью специально собранногоим робота, чертежи которого он скачал из Интернета. Старик поставилсобранного им робота, вооруженного полуавтоматическим пистолетом 22калибра, на подъездную дорожку возле своего дома, сам встал напротив ипривел машину в действие. Сердце машины не знает жалости, помните отэтом! И рука человека могла бы дрогнуть, а жалость не позволила быспустить курок. Но робот - не человек.
Пистолет был заряжен четырьмя пулями. Все они попали самоубийце в голову.
2008год. Японский роботизированный массажер Shape-up Roller 2 убил женщину,а потом еще двух человек. Женщина была задушена бусами, детали смертейдвух других владельцев массажера неизвестны.
1 декабря 2009.Поселок Чермошный Фатежского района, недалеко от города Курска -убийство человека на заводе детского питания. Убийца - робот серии 2000РА, оборудованный специальным гипперным манипулятором для захватаупаковки. Пострадавший был оператором линии упаковки. Когда операторнаклонился над конвейероми потянулся к неровно стоящей банке, лазерное устройство дало сигналроботу, что партия готова к упаковке. Манипулятор опустился начеловека. Чтобы поднять пресс и извлечь тело, понадобилось более 20минут. Судмедэкспертиза установила, что смерть наступила «в результатемеханической травмы и механической асфиксии от сдавливания шеи игрудной клетки». То есть несчастного просто раздавило.
Люди, неделайте того, что не сможете проконтролировать. Любители робототехники,Минздрав предупреждает. Робот – это не человек. Будьте бдительны!
Дальше много-много знаков.
Оне Робаты и должны ваевать!"(с)
.....задумываешься не только над тем, как сделать, чтобы войны больше не
было, но и над тем, как что нас ждет, если это все-таки случится.
Думается,
что лучше всего представить это как некое столкновение умов. За
неимением под рукой большого количества умов для непосредственного
сталкивания ограничимся противопоставлением высказываний ряда авторов.
Причем неважно, кто что сказал – это просто палитра людских позиций.
Мечта промышленника: боевая авиация 6-го поколения в целом будет
основываться на определенном сочетании пилотируемых и беспилотных
самолетов.
Аргумент лоббиста: благодаря внедрению роботов, из военных действий
исключается самый важный фактор - присутствие на поле боя живых солдат
Логика юриста: в идеале война должна вестись таким образом, чтобы
впоследствии можно было выявить ответственных за смерть мирных людей,
погибших в ходе конфликта, и определить степень их вины. Поскольку
убийства, совершенные автономными роботами, не могут быть оценены с
этой точки зрения - понятие "ответственность" к ним в принципе
неприменимо, - разработка подобных машин должна быть запрещена по
этическим соображениям.
Данные прогнозистов: к 2020 году примерно каждый третий
военнослужащий США или образец вооружения/техники будут
роботизированными механизмами
Тезис правозащитника: Проблемы начинаются тогда, когда нужно
ответить на вопрос: кто именно ответственен за то, что робот ошибся и
убил мирного жителя, и кто должен понести наказание? А значит, убийства
по ошибке, совершенные роботами, станут принципиально ненаказуемы.
Первое правило идеального робота: не доверять роботам задач,
которые связаны со значительным риском для общества. Другими словами,
действия роботов должны быть предсказуемыми, а возможность катастроф
сведена к минимуму.
Взгляд футуриста: война будущего – это война гигантских комплексов, в
которых тесно переплетены робототехнические устройства и люди.
Мнение обычного человека: предположим, все страны сделают себе
армии из роботов. И вот случилась война. И одна армия роботов победила.
И что, люди будут сидеть сложа руки и ждать, когда их убьют? Армии
роботов можно рассматривать лишь как способ выиграть некоторое время на мобилизацию людских ресурсов
Что скажет психиатр:
война с помощью роботов – это воплощение идей Фрейда о вытеснении.
Пусть где-то там кто-то воюет – не только я не буду кнопочки нажимать,
а даже и забуду о таком неприятном событии, как война.
Ах, эти философы: чтобы исключить возможность превращения механических
солдат в военных преступников, американской армии и флоту требуется
помощь специалистов по этике. Они должны будут внушить механическим
убийцам правила этики, насколько это возможно.
Что скажут ученые: исследователь робототехники из университета штата
Джорджия Ronald Arkin уверен, что роботы могут стать прекрасными
бойцами. Его вывод: роботы могут иметь более высокую мораль, чем люди!
Им не нужно себя защищать, они погибают без эмоций, сохраняя до
последнего мгновения свои умственные способности. Но от них нельзя
ожидать хорошего поведения на полях сражений.
Любители высечь
море: немецкий философ Andreas Matthias требует разработать уголовный
кодекс для машин. Они должны отвечать за нанесенный человеку вред.
Значит и боевые роботы должны нести ответственность за случайные ошибки.
Статистика: на сегодняшний день созданием роботов военного
применения занимаются уже более сорока государств. Когда вооруженные
силы США в 2003-м вторглись в Ирак, в составе сухопутных сил вообще не
было роботов. К концу 2004 года на территории Ирака американские
военные использовали 150 роботов, год спустя их было 2400. А к началу
2009 года работало уже 12 тысяч роботов двух с лишним дюжин разных
специализаций.
Как оно есть на самом деле: независимо от того, насколько умными и
надежными можно сделать роботов, они все равно будут делать ошибки.
Мнение
специалиста: компьютеры и дальняя связь не только полностью лишают
человека ощущения аморальности его действий, но и вообще боли,
сопутствующей войне, - как физической, так и психологической.
Из
предвыборной речи: пока что никто из законодателей не задался всерьез
вопросами о том, а можно ли в принципе выдавать автономным роботам
лицензию на убийство?
Второе правило идеального робота: ни при
каких условиях не доверять роботам оружие, и/или не предоставлять им
управление вооружением.
Над чем надо подумать: сегодня специалисты-роботехники почти не
вспоминают о "старомодных и наивных" идеях Азимова. А если вдруг и
вспоминают, то лишь чтобы указать, что все его рассказы из цикла "Я,
робот" по сути своей демонстрируют внутренние противоречия и
ограничения основополагающих законов. При этом, однако, никто не желает
видеть одну очень существенную вещь - для Азимова изначально была
неприемлемой идея об автономных вооруженных роботах,
запрограммированных на умышленное нанесение вреда человеку, не говоря
уже об убийствах. В азимовском мире будущего такого не могло быть в
принципе. И если в нашем сегодняшнем мире всё иначе, это означает, что
с пониманием драгоценности человеческой жизни, а значит, и с основами
морали у современного общества большие трудности. Общество, не
считающее убийство аморальным, тяжко больно. И как его вылечить, пока
неясно.
---------------------------------------------------------
Благодетели или убийцы?
Первым человеком, погибшим из-за робота, является Роберт Уильямс. Уильямсработал на фабрике Ford. Робот-убийца должен был извлекать запасныечасти из корзины. Однако скорость его работы была недостаточной. 25января 1979 года Уильямс сам вынужден был доставать запчасть изкорзины. Можно ли было роботу терпеть подобное вмешательство?Манипулятор нанес человеку, оказавшемуся у него на пути, удар поголове. Удар оказался смертельным. Правда, производители роботазаплатили за отсутствие системам безопасности и предупреждения. Нокакими деньгами можно оценить стоимость человеческой жизни?
Двумя годами позже японец Кенджи Урада, работающий в компании Kawasaki, чинилробота. И что? Гидравлическая рука машины столкнула Ураду вмеханическую дробилку. И снова смерть!
2007год. Нападение робота на человека. Рабочий компании, расположенной ксеверу от Стокгольма, занимался обслуживанием сломавшейся машины дляпереноски камней. Думая, что отключил питание робота, мужчина подошел кнему. Однако машина внезапно заработала и схватила жертву за голову.Рабочему удалось освободиться, но он получил серьезные травмы, в томчисле сломал четыре ребра. Злой умысел? Обида? Реакция на поломку?
Что, говорите, робот – это бездушная машина? В том-то и дело. И от этого ещё страшнее…
В этом же году в Ираке беспилотный летательный аппарат “Охотник” (”Hunter”)уничтожил двух человек, сбросив на них бомбы. Из пушки по воробьям, таксказать. Аппарат был вызван военными для оказания поддержки с воздуха.Как заявил представитель подразделения, в котором использовался БПЛА,главная цель – это избавить наземные войска от контактов с противником.Надо полагать, что постепенно военные превратятся в куски сала, спомощью джойстика за домашним компьютером в игровом режиме уничтожающиереальных людей, в силу разных причин не имеющих такого оружия.
Втом же 2007 году огонь по своим открыла автоматическоекомпьютеризированное орудие “Эрликон GDF-005″. Это произошло вблизи отгородка Лохатла в Северной провинции ЮАР. Было убито11 человек и ранено15. Во время ежегодных учений ПВО по непонятной причине пушка началавращаться и вести беспорядочный огонь, пока не расстреляла все свои 500патронов. Пушка была разработана и сделана в Швейцарии. А говорят, чтомашины не имеют своих пристрастий! Как бы не так! Чисто машинноежелание – доводить дело до последнего патрона!
2008 год.81-летний австралиец покончил с жизнью с помощью специально собранногоим робота, чертежи которого он скачал из Интернета. Старик поставилсобранного им робота, вооруженного полуавтоматическим пистолетом 22калибра, на подъездную дорожку возле своего дома, сам встал напротив ипривел машину в действие. Сердце машины не знает жалости, помните отэтом! И рука человека могла бы дрогнуть, а жалость не позволила быспустить курок. Но робот - не человек.
Пистолет был заряжен четырьмя пулями. Все они попали самоубийце в голову.
2008год. Японский роботизированный массажер Shape-up Roller 2 убил женщину,а потом еще двух человек. Женщина была задушена бусами, детали смертейдвух других владельцев массажера неизвестны.
1 декабря 2009.Поселок Чермошный Фатежского района, недалеко от города Курска -убийство человека на заводе детского питания. Убийца - робот серии 2000РА, оборудованный специальным гипперным манипулятором для захватаупаковки. Пострадавший был оператором линии упаковки. Когда операторнаклонился над конвейероми потянулся к неровно стоящей банке, лазерное устройство дало сигналроботу, что партия готова к упаковке. Манипулятор опустился начеловека. Чтобы поднять пресс и извлечь тело, понадобилось более 20минут. Судмедэкспертиза установила, что смерть наступила «в результатемеханической травмы и механической асфиксии от сдавливания шеи игрудной клетки». То есть несчастного просто раздавило.
Люди, неделайте того, что не сможете проконтролировать. Любители робототехники,Минздрав предупреждает. Робот – это не человек. Будьте бдительны!
@темы: Физики проектируют, Физики изобретают, Физика для роботов