Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 531

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 534

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 537

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 540

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 544

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 548

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 552

Deprecated: Function split() is deprecated in /var/www/sites/asen/pcw/procedures/class.Add.php on line 367

Google Assistant може да стреля с оръжие: Какво следва оттук нататък?

Ново видео повдига важни въпроси за това какви ограничения трябва да бъдат поставени на изкуствения интелект.

31 май 2018
3685 прочитания
0 одобрения
0 неодобрения

Google Assistant може да стреля с оръжие: А сега оттук нататък?

За добро или лошо, Google Assistant може да прави всичко. От обикновени задачи като включване на осветлението и записване на напомняния до убедително имитиране на човешка реч. Изкуственият интелект е толкова способен, че чак става плашещ. Неговата последна (неофициална) способност е именно такава. Наскоро инженерът и изследовател Александър Ребен научи Google Assistant да стреля с оръжие. За щастие, жертвата е ябълка, а не живо същество. 30-секундното видео, наречено само „Google стреля“ показва как Ребен казва „Ок, Google, активирай оръжието“. След това помощникът натиска спусъка. На практика не се случва нищо особено. Целта на това видео обаче е по-скоро да провокира дискусии за ограниченията, които трябва да бъдат поставени на изкуствения интелект.

Прочетете още: Google Duplex: система за AI ще изпълнява задачи по телефона

Според Ребен по-важно е да се обсъдят възможностите, а не фокусът да се поставя върху конкретното устройство. За този проект той използва Google Assistant, но за същата цел е можел да послужи и Amazon Echo например. Освен това устройството, което ще натисне спусъка може да бъде и масажен стол или машина за сладолед. В крайна сметка Ребен избира да въоръжи Assistant във връзка с притесненията относно наскоро представените възможности на Duplex AI на Google.

Във видеото все пак Ребен е този, който казва на асистента да „активира оръжието“. Той е този, който носи отговорността за действието. Но в свят, в който AI e достатъчно интелигентен да предвижда нашите нужди и да се грижи за нашия комфорт всеки ден, не е трудно да си представим момент, когато дигиталните асистенти ще могат да убиват хората, които ни разстройват, стига да имат достъп до оръжия. В такъв случай кой всъщност ще носи отговорност за тези действия?

Лесно е да се каже, че трябва да се блокира достъпът на изкуствения интелект до опасни устройства. Но ние вече сме ги сложили в колите си, те имат място в оръжейната индустрия, както и на много други места, за които дори не сме се замисляли. Ние можем да изискваме компаниите да гарантират, че техните технологии няма да могат да причиняват вреда, но е невъзможно да се планира всичко – дори вероятните грешки, които AI може да допусне.

Част от посланието за мен включва непреднамерените последствия от технологии и безсмислието на това да се обмисля всеки възможен сценарий“, коментира Ребен. От Google може би дори не са си и представяли, че асистентът ще бъде използван за стреляне с оръжие. Но за да постигне това, на инженера са му трябва части, които са били достъпни в неговото студио.

Ребен не за първи път изследва възможностите на изкуствения интелект. Този проект обаче е особено провокативен, тъй като подтиква зрителя да си представи какво може да се случи, ако програмисти решат да компрометират AI. Сега повече от всякога трябва да се обсъди как и дали можем да предотвратим случаи, в които интелигентни машини ще могат да убиват.

0 одобрения
0 неодобрения
Още от рубрика "Софтуер"
КОМЕНТАРИ ОТ  
Трябва да сте регистриран потребител, за да коментирате статията
"Google Assistant може да стреля с оръжие: Какво следва оттук нататък?"



    

абонамент за бюлетина