Любим сюжет на холивудските филми е изкуствен интелект, който се обръща срещу създателите си и решава, че те са заплаха. И докато преди няколко години това изглеждаше предимно като фантастика, то днес подобно развитие не е далеч от реалността. Дори е тема, която все по-усилено се дискутира и се търсят методи за защита. А това, оказва се, не е лесно.
Изкуственият интелект е като малко дете. Много зависи от неговите родители как ще го възпитат в началото, като това ще има пределяща роля за бъдещето му. В случая „родителите“ на изкуствения интелект са и негови учители. От тях зависи не само да научат своите създания на морал, но и на всичко най-важно преди те сами да започнат да учат останалото.
И в голяма степен правят всичко това без кой знае какъв надзор, без никакви налични правила и рамки и се разчита изцяло на тяхната съвест, добра воля и разбирания. А всеки човек може да има доста различни представи за тези три неща.
Специален надзор
Изкуственият интелект е мултимилиарден бизнес, който се развива с пълна пара. А все още е едва в своя зародиш и има още много път пред него преди да стигне до ниво, което да конкурира човешкото съзнание. Това обаче може да се случи неусетно, а за сега действително няма никакви регулации, които да определят какво може и не може да се прави с изкуствен интелект. Но тъй като темата звучи далечна, тя остава на заден план въпреки все по-усилените дискусии за регулиране на технологичните компании през последните месеци.
За сега разработката на изкуствения интелект продължава без реален надзор. Някои компании подписват меморандуми за отговорност или създават доброволни комитети, които да са своеобразен надзорник, но успехите им са неясни. Особено след като Google обяви създаването на борд, който трябва да анализира етичните въпроси свързани с изкуствения интелект и го закри след по-малко от две седмици. Причината – етични проблеми около самите членове и техни изказвания и позиции по различни деликатни обществени теми.
Организацията OpenAI, в която участваше и Илон Мъск също трябва да мотивира развитието на изкуствения интелект в обществено полезни посоки. Мъск обаче я напусна през февруари т.г. след като призна за различия с останалите членове именно за посоката на организацията занапред, която все повече гледа към комерсиализирането на технологията.
Кой е отговорен в крайна сметка?
Има твърде много фактори, с които разработката на изкуствения интелект трябва да се съобрази. Няма как само една група или институция да се справи.
Според организацията AI Now Institute отговорността е най-вече на компаниите и хората, които разработват тези технологии. Те трябва да се уверят, че изкуственият интелект няма да дискриминира по каквито и да е начини, да предвидят какво да се прави при погрешно идентифициране от алгоритмите, да се въведат защити така, че алгоритмите да не се самообучават по грешен начин и да затвърждават убедженията си и др. „Фирмите ще трябва да взимат трудното решение дали продукт, който не се справя с това, да излезе на пазара“, коментира Рашида Ричардсън от AI Now пред MIT Technology Review.
Ричардсън споделя, че е много трудно да се регулира технология, която все още се развива. Няма как да се знае накъде ще тръгне тя, как ще бъде приета от пазара и от какво ще се нуждае. Прекалена регулация твърде рано, може да задуши сектора и да спре развитието на технологията. Регулация твърде късно обаче може да се окаже безполезна.
Намирането на баланс е особено трудно и засега технологията ще се развива стремоглаво, като ще разчита най-вече на саморегулация. Реакциите и натискът от страна на служителите на големи компании (AI бордът на Google беше разформирован именно заради недоволството на служителите на компанията) засега остава единствената сигурна мярка.