Бързият напредък на технологиите с изкуствен интелект и широкото им приложение в различни области от ежедневието предоставя редица ползи за гражданите, бизнеса и публичната администрация. Тяхното реализиране изисква систематично, навременно и ефективно управление на рисковете за основните права и принципите на демокрацията, които могат да възникнат при дизайна и използването алгоритми. Прилагането на цялостен подход за ограничаване на риска от вреда и злоупотреба обхваща целия жизнен цикъл на системите с изкуствен интелект и зависи от активното участие на всички заинтересовани страни. Това включва разработчиците на изкуствен интелект и техните организации, които са на „първа линия“ в процеса на проектиране на етични и надеждни приложения и системи.
Изграждането на екосистема за етичен изкуствен интелект и отговорни иновации с фокус върху утвърждаването на основните права е ключова предпоставка за повишаване на доверието сред гражданите относно ползите от интегрирането на системи с изкуствен интелект в дейността на предприятията и държавните институции. На 9 декември 2025 г. Центърът за изследване на демокрацията организира кръгла маса, която разгледа тенденции и добри практики за управлението на изкуствения интелект, така че да се постигне балансиран подход за ограничаване на риска и насърчаване на иновациите.
Д-р Нинке ван дер Хаве представи най-скорошното изследване на Агенцията на Европейския съюз за основните права във връзка с прилагането на Акта на ЕС за изкуствения интелект. Акцент на нейното изказване бяха препоръките за провеждане на ефективна оценка за въздействието на високорисковите системи с изкуствен интелект върху основните права.
Доброслав Димитров подчерта, че технологиите с изкуствен интелект са с общо предназначение и, същевременно, предоставят стратегическо предимство и това затруднява тяхното регулиране. Иновациите в сферата на ИИ следва да са основен приоритет в европейската стратегия за технологичен суверенитет и демократична устойчивост, тъй като ИИ дава преимущество на авторитарните държави.
Д-р Татяна Новосьолова представи практически инструмент за управление на риска в при разработването на системи с ИИ, който включва списък за проверка, илюстративни сценарии и добри практики, прилагани от разработчиците на ИИ. Инвестициите в институционални политики и мерки за насърчаване на етиката на ИИ засилва конкурентоспособността на организациите, подобрява тяхната репутация на пазара и повишава общественото доверие.
Несин Вели разгледа как генеративният ИИ променя информационното пространство и размива границата между създателите и потребителите на съдържание. Злонамерени субекти все повече се възползват от алгоритмите за препоръка на съдържание да разпространяват подвеждащи и манипулативни послания. Същевременно обаче, изкуственият интелект позволява много по-бързо и ефективно да се откриват и изобличават операции за чуждестранно манипулиране на информацията.
Мартин Стаменов обърна внимание на предизвикателствата за постигането на обяснимост на резултатите, генерирани с изкуствен интелект. Той очерта основните елементи на подхода на етичния дизайн за повишаване на прозрачността на системите с ИИ, които включват както технически аспекти като качество на входящите данни и метрики за надеждност на резултатите, така и организационни аспекти като осигуряване на човешки контрол, разпределение на задачи и отговорности за проверка и предвиждане на механизъм за реагиране в случай на инцидент.
Илия Кръстев подчерта необходимостта от стратегическа визия и политики в България за насърчаване на иновациите и увеличаване на рисковия капитал и инвестициите в сферата на ИИ. Процесите на регулация и стандартизация са свързани и могат да способстват за изграждането на единен европейски пазар за достъпни технологии с ИИ.
Александър Китов разгледа как изкуственият интелект променя работното място и бизнес операциите. Към момента все още не съществуват общоевропейски насоки относно основните умения и компетентности, необходими за ефективната адаптация към тези промени. Ключови видове умения в това отношение включват: (1) техническо разбиране как работят инструментите с ИИ; (2) умения за практическото прилагане на инструменти с ИИ; (3) стратегии за внедряването на инструменти и решения с ИИ в организационните процеси.
Д-р Християн Даскалов отбеляза ролята на Акта на ЕС за ИИ в насърчаването на иновациите в сферата на ИИ. Актът съдържа разпоредби за изграждането на „регулаторни пясъчници“, които да служат като тестови лаборатории за нови продукти и инструменти с ИИ преди да бъдат официално пуснати на пазара. Той отбеляза, че Законодателният акт за киберустойчивост допълва регулацията на ИИ за повишаване на кибесигурността и кибер-защитата на технологиите с ИИ.
Йордан Гинев очерта тенденциите в технологичния сектор в сферата на ИИ в България, като акцентира, че много компании внедряват ИИ без да популяризират това. Важно е как се подхожда към регулацията на ИИ, така че основният фокус да не е само върху ограничаването на потенциалните вреди, а върху възможностите, които тези технологии създават.





























