Home / Новости / Активности / 15 март – Светски ден на правата на потрошувачите

15 март – Светски ден на правата на потрошувачите

Фер и одговорна вештачка интелигенција за потрошувачите

 Движењето на потрошувачите во светот претставено преку Светската потрошувачка организација (Consumers’ International) секоја година го одбележува 15-ти март – Светскиот ден на правата на потрошувачите, со цел подигање на глобалната свест за правата и потребите на потрошувачите. Преку одбележувањето на овој ден се претставуваат барањата за почитување и заштита на правата на сите потрошувачи  а воедно се иницираат теми за  пазарните злоупотреби и социјалните неправди кои ги поткопуваат тие права.

Светскиот ден на правата на потрошувачите е глобално признат со поддршка од Обединетите нации и други меѓународни актери. Повеќе од 40 години Consumers International води кампањи за правата на потрошувачите обединувајќи го потрошувачкото движење во заедничките активности. Членовите на оваа организација помагаат да се избере темата на кампањата секоја година, со цел да помогне во мобилизирање на организациите кои ги заштитуваат правата на потрошувачите во една глобална акција за третирање на важни теми и горливи  прашања кои влијаат на потрошувачите и нивните права. Оваа година во центарот на внимание е вештачката интелигенција (ВИ), преку кампања: „Фер и одговорна вештачка интелигенција за потрошувачите“. Организацијата на потрошувачите на Македонија како членка на Consumers International веќе трета  деценија се приклучува на кампањите на  Consumers International. .

Се поставува прашањето: Што ќе донесе новото европско законодавство за вештачка интелигенција?

Законот за вештачка интелигенција, кој беше формално усвоен  на 13 март 2024 година од  страна на Европскиот  парламентот , е клучен дел од пошироката регулатива на Европската унија за дигитална трансформација и е тесно поврзан со целите на пакетот за дигитално законодавство на ЕУ, кој се состои од Закон за дигитални пазари и Закон за дигитални услуги. Целта е да се обезбедат подобри услови за развој и користење на Вештачка интелигенција (ВИ), како и безбедност, транспарентност и недискриминација  од страна на овие системи. Законот ги дефинира системите за вештачка интелигенција според нивото на ризик, воведувајќи нови правила за високоризични системи и идентификувајќи случаи на употреба на вештачка интелигенција кои треба да бидат целосно забранети, како што е биометриска идентификација на јавни места.

Законот за ВИ ги дефинира обврските за провајдерите на ВИ и ги дели во четири категории.

Овој пакет на акти е  фокусиран на создавање поправедна и побезбедна дигитална средина. Тоа е првото сеопфатно законодавство во светот.

1 – Неприфатлив ризик

  • Когнитивно-бихејвиорална манипулација
  • Социјално бодување
  • Биометриски системи
  • Далечинска идентификација во реално време

2 – Високо ниво на ризик

Безбедност на производот: ВИ системи во играчки, авиони, автомобили, медицински  производи, лифтови…

Посебни области: Биометриски системи, оценување, вработување, толкување, примена и спроведување на законодавството.

3 – Ограничен ризик

Минимални барања за транспарентност заради информирано донесување одлуки.

Системите за интерфејс кои манипулираат со содржина со слики, звук или видео (т.е. длабоки фејкови- deepfake).

4 – Генеративна вештачка интелигенција

Барања за транспарентност: означување на потеклото на содржината.

Спречување на нелегална содржина.

Објавување на резимеа на податоци заштитени со авторски права.

  1. Системите со неприфатлив ризик се сметаат за закана за луѓето и се забранети, со некои исклучоци се дозволени во случаи на спроведување на законот.
  2. Системи со висок ризик се оние кои имаат негативно влијание врз безбедноста или основните права. Тие ќе се оценуваат пред да влезат на пазарот, а потоа редовно во текот на целиот животен циклус.
  3. Системите со ограничен ризик мора да го информираат корисникот дека имаат интеракција со вештачката интелигенција за да може да одлучи дали сепак сака да продолжи да ги користи.
  4. Системите со ниско или минимално ниво на ризик нема да подлежат на дополнителни обврски, но се предвидува креирање на етички кодекс. Ова, исто така, ќе ги поттикне давателите на системи со ниско или минимално ниво на ризик доброволно да ги следат сите обврски што давателите на системи со високо ниво на ризик се обврзани да ги почитуваат.

Генеративниот интерфејс ќе мора да биде пред сè транспарентен, понапредните модели треба да подлежат на темелна проценка на нивната состојба, а нивните провајдери ќе мора да ги пријават сите сериозни инциденти до Европската комисија.

Затоа, законодавството како Законот за кориснички интерфејси е чекор во вистинската насока, но тоа е само првиот чекор. Постојаното следење, управување и прилагодување на законодавните рамки за да се задржи чекор со брзиот технолошки напредок е од клучно значење.

Притоа, мора да се посвети внимание на трите фази на развој и употреба на генеративна  ВИ.

Законот  за ВИ, вклучи специфични одредби кои се однесуваат на вештачката интелигенција за општа намена (GPAI, Chat GPT).

Моделот GPAI претставува системски ризик доколку има големо влијание или значително влијание врз внатрешниот пазар поради неговиот досег. Давателите на GPAI модели со системски ризик се соочуваат со дополнителни обврски насочени кон идентификување и ублажување на тие ризици и обезбедување на соодветно ниво на заштита на сајбер безбедноста. Обврските за давателите на GPAI се применуваат откако моделите ќе бидат пласирани на пазарот.

Она за што се грижиме: развој на ВИ

Потрошувачите и потрошувачките организации се загрижени за начинот на кој се развива корисничкиот интерфејс и како добива податоци за неговото функционирање.

На генеративните ВИ модели им требаат, а воедно и користат големи количини на податоци за нивна обука, учење и креирање на нови содржини, врз основа на кои препознаваат поединечни обрасци и структури. Содржината создадена на овој начин може да биде текст, слики, аудио или видео клипови, кои обично се многу слични на содржината генерирана од човекот.

ChatGPT, Midjourney, Stable Diffusion и DALL-E се меѓу најпознатите генеративни ВИ услуги. Компаниите како Мајкрософт (Microsoft), Гугл (Google) и Снепчет (Snapchat) веќе ја вградија технологијата во нивните услуги, вклучувајќи пребарувачи, обработка на текст и разговор.

Затоа треба да се посвети многу внимание на прашањето како се градат моделите на ВИ, на кој начин се развиваат и дали овој начин е фер за потрошувачите.

Дали податоците што се користат за обука на моделот на кориснички интерфејс се собрани законски и со согласност на луѓе или сопственици на интелектуални права?

Дали е етички човечкиот труд кој ги означува и категоризира овие податоци?

Програмерите треба да бидат отворени и транспарентни за тоа како создаваат алатка за кориснички интерфејс што ќе ја користат потрошувачите, исто како што етикетирањето на производите им помага на луѓето да разберат што има во нивната храна, текстил или лекови.

Она за што се грижиме: користење на ВИ

Моделите за кориснички интерфејси мора да им бидат понудени на потрошувачите за употреба на начин што ќе осигури дека потрошувачот и заштитата на неговите права се на прво место. За правилно да ги заштитиме потрошувачите, треба да знаеме какво влијание ќе има моделот на ВИ врз општеството кога станува збор за пазарот.

Во оваа насока се води  дебата меѓу стручната јавност за тоа дали моделите на ВИ достапни за потрошувачите треба да бидат со отворен код (изворниот код на моделот е отворен за јавноста и достапен за употреба од сите) или затворен извор (тие се приватни и достапна само за развивачите на одреден модел).

Сепак, важно е да се осигура дека програмерите ги откриваат ризиците како дизајните може да ги претставуваат кон потрошувачите или општеството во целина, и да им се дозволи на истражувачите или агенциите за спроведување на законот самостојно да ја потврдат нивната етика и безбедност.

Работите можат да се решат само рака под рака, така што органите за спроведување на законот мора да ги имаат сите потребни ресурси и овластувања за да го следат технолошкиот развој и да преземат мерки против компаниите кои користат генеративна вештачка интелигенција без да се придржуваат кон законот.

Моделите за интерфејс имаат потенцијал да воведат нова ера на дезинформации бидејќи сега е полесно од кога било да се измамат луѓето со нив. Генеративниот интерфејс може да создаде измамнички снимки (deepfakes), кои се популарна алатка на измамниците, особено за време на избори, како и лажни аудио снимки и слики.

Сето ова е евтино, лесно достапно и многу пософистицирано и пореално отколку во минатото. Исто така е полесно да се направи, бидејќи не треба да бидеме експерти во областа на ВИ или програмирање.

Ова може да предизвика голема штета на поединците, ранливите групи и општеството воопшто, бидејќи користењето на такви модели го отежнува откривањето на измама. Ова е нешто против што сите треба да се бориме.

За што се грижиме: Одговорност за ефектите од технологијата на ВИ

Ако технологијата со вештачка интелигенција треба да биде корисна  работа и ако сака да го поддржи процутот на поединците и општеството наместо да го поткопа, императив е не само да се стекне подлабоко разбирање за нејзиното влијание врз човековите права и основните слободи, туку и внимателно да се разгледа прашањето кој треба да биде одговорен за неговите штетни последици.

Ако системот за кориснички интерфејс создава проблем за човек, кој е виновен и кој треба да го поправи?

Многу е напишано за потенцијалот на корисничкиот интерфејс и другите технологии за неправедно дискриминација или промовирање на пристрасност, но помалку за тоа кој треба да одговара.

Во иднина, алгоритмите за вештачката интелигенција ќе носат сè повеќе одлуки во име и за луѓето, како што се кредити, здравствена заштита, осигурување или вработување, така што треба да обезбедиме сигурни процеси за решавање на проблемите што веќе се појавиле и ќе се појават. Ќе треба да се воспостават одредени нивоа на одговорност во индустријата, владата и граѓанското општество, а ќе треба да се воспостават жалбени постапки и други средства за предизвикување одлуки донесени од алгоритми за вештачка интелигенција.

Прашањето за одговорност го вклучува и прашањето за правото на надомест на потрошувачите, откривањето на владините барања за пристап до податоците и потенцијалното прекршување на интелектуалната сопственост.

Ерата на генеративниот интерфејс, во која светот брзо влегува, се карактеризира со многу можности, но и предизвици.

Со создавање на средина на транспарентност, отчетност и соработка, можеме да се осигураме дека оваа влијателна технологија е алатка за унапредување и овозможување успех во дигиталниот свет.

Тука мора да бидеме свесни дека иднината на генеративниот ВИ не е однапред одредена,  од нас зависи дали навреме ќе го подвлечеме правецот на неговиот развој со одговорност и посветеност на благосостојбата на сите чинители.