+ 359 89 430 0484 / office@murgova.com

Публикации маркирани с ‘настъпили вследствие на използването на ИИ’

  • Ерата на изкуствения интелект – възможности и предизвикателства пред бизнеса

    В категория В обектива, НА ФОКУС, На фокус на дата

    Сред най-актуалните теми тази година е темата за навлизането и използването на системи с изкуствен интелект в бизнес процесите и в ежедневието ни като ползватели на базирани на технологията приложения. За да предостави възможности за пълноценна интеграция на тази иновация и същевременно да бъдат минимизира рисковете от злоупотреби с нея, Европейския съюз предложи няколко законодателни инициативи, които да спомогнат за създаването на баланс между етичните, правните и пазарните аспекти при регулирането на технологиите с изкуствен интелект.

    Какви са основните концепции за създаване на уредба?

    В момента Европейската комисия има две значими законодателни предложения относно Регламент за определяне на хармонизирани правила относно изкуствения интелект и Директива за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директива относно отговорността във връзка с ИИ).

    В проекта на Регламента е дадена дефиниция на „система с изкуствен интелект“. Това е софтуер, разработен с една или повече от техниките и подходите за машинно самообучение, логически и основани на знанието подходи, статистически подходи, методи за бейесовско оценяване и търсене и оптимизация, който може по отношение на даден набор от цели, определени от човек, да генерира резултати, като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат.

    В проекта са определени и нива на риск при ИИ:

    • Неприемлив риск, който се отнася до явна заплаха за безопасността, средствата за преживяване и правата на хората;
    • Висок риск, който се отнася до важни изрично определени важни сфери;
    • Ограничен риск, който се отнася до системи с ИИ със специфични задължения за прозрачност;
    • Минимален или никакъв риск, който позволява свободно използване на системата.

    По отношение на влиянието върху бизнеса делението на високорискови системи ИИ засяга следните области на действие на системите за:

    – биометрична идентификация и категоризация на физическите лица;

    – управление и експлоатация на критична инфраструктура;

    – набиране или подбор на служители чрез автоматизиран скрининг или филтриране на заявления, за оценяване на кандидатите по време на събеседвания или тестове и за вземане на решения за служебно повишение, както и за прекратяване на трудови правоотношения, за разпределяне на задачите и за наблюдение и оценяване на работата и поведението на лицата при такива правоотношения;

    – оценка на кредитоспособността на физически лица или за определяне на техния кредитен рейтинг, с изключение на системите с ИИ, въведени в експлоатация от малки доставчици за тяхна собствена употреба.

    Всяка организация, която е взела решение да въведе използването на високорисков софтуер с ИИ, трябва да създаде цялостна система за управление на риска от въвеждането и използването му, която да се интегрира в нейните бизнес операции. Системата трябва да включва опис на всички ИИ системи, използвани от организацията, система за класификация на риска, мерки за смекчаване на риска, независими одити, процеси за управление на риска от данни и структура за управление на ИИ. Преди пускането на пазара или въвеждането в експлоатация на високорискова система с ИИ, доставчикът или упълномощеният представител следва да регистрира тази система в базата данни на ЕС. Доставчиците имат задължение да създадат и документират система за мониторинг след пускането на пазара по начин, съобразен с естеството на технологиите за изкуствен интелект и с рисковете на високорисковата система с ИИ.

    Отговорност за вреди, настъпили вследствие на използването на ИИ

    Докато Регламентът за ИИ се фокусира главно върху наблюдението и предотвратяването на щети, Директивата за ИИ цели хармонизиране на режима на отговорност при възникването на вреди от системи с ИИ.

    С текстовете на Директива се предлага:

    • да се адаптират и координират националните режими на отговорност за вреди, причинени от ИИ на всяка от държавите-членки, но без те да бъдат отменени напълно;
    • по-лесно да се доказват вредите за пострадалите, включително доказването на връзката между вината на ответника и събитието, състоящо се от действие или бездействие, произтичащи от използването на ИИ системи;
    • изискване за оценка на ефективността на мерките и преценка за необходимостта от хармонизиране на други елементи на националното право за непозволено увреждане, включително въвеждането на възможен режим на строга отговорност и изискване за застрахователно покритие;
    • баланс между предоставянето на информация в съдебен процес и защитата на търговските тайни, по отношение на високорисковите системи за ИИ.

    Директивата за ИИ дава на националните съдилища правомощието да разпоредят разкриването на доказателства от доставчика или друго лице, обвързано от своите задължения, когато доставчикът откаже да изпълни същото искане, направено от пострадалия-ищец или всяко друго лице, което би имало право да поиска това от съда.

    Директивата за ИИ предвижда, че когато разкриването на търговска тайна или на предполагаема такава е разпредено в съдебно производство, съответните национални съдилища са упълномощени, с надлежно мотивирано искане от една страна или служебно, да приемат специфични мерки, необходими за опазването на тайната. Съобразно Директива 2016/943 относно защитата на неразкрити ноу-хау и търговска информация срещу тяхното незаконно придобиване, използване и разкриване сред тези мерки е възможността за ограничаване на достъпа до документи, изслушвания, записи и преписи до по-малък брой лица и за редактиране на части от решенията, в които се предоставя конфиденциална информация, която може да бъде приета за търговка тайна.

    Примери за възможните вреди вследствие на използването на ИИ могат да бъдат:

    – проблеми при дизайна и оперирането на системите;

    – влагане на базови данни при проектирането на софтуера, които да доведат до дискриминация на потребители;

    – изкривяване на анализа на информация и заключението за крайните резултати;

    – умишлени злоупотреби;

    – кибератаки поради нарушаване на сигурността на системите.

    Все още активно се дискутира кой ще носи отговорността при възникването на негативни последици от ИИ и дали тя е за доставчика, вносителя, дистрибутора или ползвател на тези системи? Ако при създаването на софтуера е допусната грешка или е създадена друга предпоставка, която довежда до щети тогава отговорността би следвало да понесе доставчикът, но е възможно тя да бъде споделена с вносителя и дистрибутора, ако те са разпространили система без да проверят дали съответства на стандартите за безопасност, съхраняване, транспортиране и други условия. При конкретната преценка следва да се изясни дали вредата е настъпила поради система, която изначално е била рискова или е използвана умишлено, или непредпазливо от ползвателя и това е довело до негативния резултат.

    За да се гарантира оптимална съобразност на инвестицията в технологичното нововъведение за бизнеси, които предприемат стъпки по внедряване на системи с ИИ в дейността си, е от съществено значение да бъде извършен предварителен анализ, включително юридически за съвкупността от рисковете за защитата на личните данни, разпределянето на авторските права, приложимите стандарти за киберсигурност и общите регулаторни изисквания в конкретния бранш.

     

    Статията е публикувана и в Колонката на Мургова и партньори в сайта на списание „твоят БИЗНЕС“.