Skip to main content

Стратегическата дилема на Европа в сферата на изкуствения интелект

Моделите, създадени в авторитарни държави, и устойчивостта на демокрациите

В началото на 2025 г. DeepSeek – китайският модел с генеративен изкуствен интелект – направи силно представяне, с което оглави международните класации и се превърна във водещо заглавие в глобален мащаб. Докато този модел бързо навлиза в практиката чрез дейността на разработчиците и под формата на корпоративни решения отвъд границите на Китай, демократичните правителствата по света са изправени пред множество предизвикателства.

За Европа защитата на личните данни е от ключово значение. Редица национални регулатори за защита на данните, в т.ч. в Италия, Германия и Франция, предупреждават за потенциални нарушения от страна на DeepSeek на Общия регламент относно защитата на данните. Основните въпросите касаят това къде отиват данните на потребителите, кой има достъп до тях и дали се спазват правата на гражданите на ЕС.

Но истинската заплаха всъщност е още по-сериозна.

Какво се случва, когато генеративен изкуствен интелект с отворен код е създаден в система, в която политическият живот е под контрола на малък брой субекти, дошли на власт без пряк избор, без конкуренция и без отчетност, или в затворени институционални системи, характеризирани със завладяване на държавата? Това не е само технически въпрос – той е стратегически, политически и екзистенциален. За Европа DeepSeek представлява лакмусов тест за способността на демократичните страни ефективно да управляват системите с изкуствен интелект, създадени в условията на авторитаризъм – наред с множеството етични предизвикателства.

Какво представлява DeepSeek?

DeepSeek AI е китайски стартъп, който започва своята дейност през 2023 г. с амбицията да създава големи езикови модели (LLM) с отворен код, способни да конкурират западните решения със затворен код, напр. GPT-4 и Claude, като предоставят по-икономични технологии, които не отстъпват по ефективност.

В началото на 2025 г. компанията пусна DeepSeek R1 – многофункционален модел, за който се твърди, че достига (а според някои – дори надвишава) възможностите на основните си конкуренти, в т.ч. модел „o1“, разработен от OpenAI. По данни на компанията, DeepSeek R1 е обучен със сравнително нисък бюджет – около 6 млн. долара (или 5,1 млн. евро), далеч под сумата от 100 млн. долара, спомената от Сам Алтман за GPT-4.

В контекста на европейската регулаторна рамка за изкуствения интелект обаче въпросите за  ефективността или цената са второстепенни. От по-съществено значение е да се установи с какви данни работи китайският модел, с какви права разполагат потребителите и до каква степен моделът е обучен да спазва тези права. За сравнение, Кодексът на поведение на модела Claude е вдъхновен от международните етични стандарти, като например Всеобщата декларация за правата на човека.

Защита на данните като основно право

В ЕС защитата на личните данни е гарантирано от Хартата на основните права. Общият регламент относно защитата на данните установява строги правила относно събирането, обработката и предаването на данни, включително на страни извън ЕС.

Важно е да се отбележи, че този регламент налага ограничения върху предаването на данни към трети страни, които не могат да гарантират подходящата им защита. Европейската комисия разглежда Китай като държава, която не предоставя подобни гаранции, което означава, че всяко предаване на данни към китайски структури подлежи на допълнителна проверка и контрол.

На фона на бързо нарастващата популярност на DeepSeek сред европейските разработчици и изследователи, няколко национални регулатори за защита на данните реагираха с предупреждения:

  • Италианският регулатор изиска информация относно обработката на лични данни (в т.ч. какви лични данни се събират, от какви източници, за какви цели, на какво правно основание и дали събраните лични данни се съхраняват в Китай). След като не получи задоволителни отговори на тези въпроси от компанията, регулаторът нареди чатботът на DeepSeek на бъде блокиран на територията на Италия.
  • Няколко немски държавни регулатора започнаха координирани разследвания относно дейността на DeepSeek.
  • Френският регулатор потвърди, че е изискал допълнителна информация от компанията относно начина на действие на модел R1.

Политики за поверителност: привидни прилики и същностни различия

Интересно е да се отбележи, че на пръв поглед политиките за поверителност на DeepSeek и OpenAI изглеждат сходни. И двете компании:

  • събират потребителски данни и метаданни с цел подобряване на своята ефективност;
  • запазват си правото да използват събраните данни за обучение на модели;
  • не предлагат на потребителите защита на данните, съобразена с изискванията на Общия регламент относно защитата на данните ;
  • не осигуряват пълна прозрачност относно съхранението, използването и унищожаването на събраните данни. 

Източник: Център за изследване на демокрацията въз основа на данни от съответните компании.

Тогава защо DeepSeek подложи на видимо по-строг регулаторен контрол?

Този въпрос не е свързан с политиката за поверителност на самата компания. Той касае правно-политическите характеристики на системата, в която тази компания е създадена – и това какво би могла да направи тази система, ако разполага с достъп до данните на чуждестранни потребители.

Теорията за завладяната държава и изкуствения интелект: изкривени модели, програмирани в условията на авторитарни режими

Теорията за завладяната държава предоставя надеждна и убедителна рамка за анализ на изкуствения интелект, създаден в условията на авторитаризъм. В най-общ смисъл, „завладените държави“ представляват агресивни субекти, които целенасочено подкопават международния правов ред и баланса на силите в глобалната система в полза на концентрирани елити и без оглед на спазване на индивидуалните човешки права.

Джак Кларк, ръководител на отдел „Политики“ в Anthropic, пренася тази теория в контекста на изкуствения интелект и го представя като субект, който се „появява“ и започва да  функционира почти автономно. Подобно на държавите, системите с изкуствен интелект могат да влияят на заобикалящия ги свят и да си взаимодействат с него, но без задължително да спазват установените норми за защита на човешките права. Моделите на „завладения“ изкуствен интелект са тези, чиито цели, поведение и цикъл на  обратна връзки не са в съответствие с ценностите, които гарантират стабилността на международната система.[1]

Необходимо е да се отчете и още един аспект: Какъв ще е резултатът, когато враждебен политически режим – и дори не завладяна държава – създава изкривен изкуствен интелект?

Със своята непрозрачна форма на управление и широко обхватна инфраструктура за наблюдение на населението, Китай все повече се възприема в демократична Европа като геополитически съперник, икономически конкурент и регулаторна „черна кутия“. Мерките, предприети за управлението на технологиите с изкуствен интелект, могат бързо да се променят спрямо нагласите в Китайската комунистическа партия, което затруднява дългосрочната предвидимост и установяването на трайни механизми за отчетност.

Към това следва да се добави и фактът, че разработчиците на изкуствен интелект могат да контролират вида съдържание, с което техните модели си взаимодействат. В система без прозрачност и механизми за независим надзор съществува реален риск обучението на изкуствения интелект да отразява идеологическите предпочитания на крайния собственик – в случая с Китай това е Комунистическата партия. По този начин в системата с изкуствен интелект може целенасочено да се внедрят подбрани послания и програмира предубеденост.

Докато много демокрации, включително тези в Европа, също имат закони, изискващи от компаниите да съдействат на органите на реда, контекстът в Китай е коренно различен. Например китайският Закон за националното разузнаване от 2017 г. и Законът за киберсигурността от 2016 г. задължават китайските компании да предоставят данни и да подпомагат държавните служби по сигурността – без реален съдебен контрол или друг вид надзор как се прилагат тези правомощия. На този фон е много неубедително която и да е китайска компания за изкуствен интелект – включително и DeepSeek – да твърди, че е независима от държавно влияние.

Това, което се наблюдава, е заплаха, която се появява отново и отново:

Враждебна държава, която нееднократно е нарушавала човешки права, програмира своя мироглед в система с изкуствен интелект, като от своя страна, тази система може да се превърне в субект на завладяната държава.

Заплахата от изкривени модели с внедрени авторитарни ценности е многопластова и създава сериозна дилема за демокрациите. Неправомерното използване на данни е само един аспект. Всъщност заплахата касае бавното и неосезаемо разпространение на недемократична логика в системите, на които демокрациите разчитат за образование, общуване, производство и вземане на решения.

Заключение: демокрациите и предизвикателството на привидната откритост

DeepSeek не е просто тест за спазване на европейското законодателство по отношение на защитата на данните – той е индикатор за уязвимостите на демократичните системи в епохата на геополитическа конкуренция в дигиталната среда. Този модел също така показва, че принципи като прозрачност и доверие в институциите не следва да се възприемат като даденост. Когато откритостта не е базирана върху споделени ценности, тя лесно може да се превърне в средство за манипулация.

Системите с изкуствен интелект не са просто неутрални технологии. Те са политически участници, които отразяват ценностите на своите създатели. И тези ценности могат да са в директен конфликт с принципите на демокрацията и човешките права.

Опитът с DeepSeek е не само сигнал за нарастващото влияние на Китай в сферата на изкуствения интелект, но и предупреждение за глобалните рискове, свързани с концентрацията на власт, липсата на прозрачност и неподходящите стимули, които движат разработването на големите езикови модели.

DeepSeek показва, че най-сериозното предизвикателство пред управлението на изкуствения интелект не касае разминаванията в регулаторните подходи, а осъзнаването, че дори основни човешки права на практика не са общоприети.


[1] Специалният комитет на Камарата на представителите за Китай заяви в доклад, че връзките на DeepSeek с интересите на китайското правителство са „значителни“. Законодателите твърдят, че основателят на DeepSeek, Лян Вънфенг, контролира компанията заедно с хедж фонда High-Flyer Quant в „интегрирана екосистема“, която има връзки със свързани с държавата дистрибутори на хардуер и китайския изследователски институт Zhejiang Lab.

Този сайт използва бисквитки (cookies), за да осигури услуги, за персонализира съобщения и за статистика. При навигация в този сайт вие приемате използването на бисквитки. Научете повече за бисквитките.