Профилирањето на вештачката интелигенција претставува растечка закана за приватноста и националната безбедност
Системите за вештачка интелигенција покренуваат итна загриженост во врска со приватноста и националната безбедност поради нивната способност да анализираат, етикетираат и профилираат чувствителни кориснички податоци, изјави виш инженер за наука за податоци, предупредувајќи на празнини во транспарентноста и надзорот.
Иако алатките за вештачка интелигенција, како што се четботовите, се широко пофалени за поедноставување на секојдневниот живот, употребата на лични податоци во обликувањето на одговорите – вклучително и потенцијално профилирање на политички убедувања, религиозни ставови или здравствени информации – предизвика дебата за прекршување на законите за заштита на податоците и етичката употреба на автономни технологии.
Неодамнешните извештаи тврдат дека системи како ChatGPT имаат можност да извлекуваат и класифицираат кориснички особини врз основа на интеракции, вклучувајќи политички или религиозно чувствителни идентификатори. Развивачите на вештачка интелигенција, вклучувајќи го и OpenAI, велат дека корисниците го задржуваат правото да се откажат од обука за податоци и дека се воспоставени административни и технички заштитни мерки.
Но, Емре Дургут, виш инженер за наука за податоци со седиште во Турција, за Анадолија изјави дека сегашниот пристап останува премногу непроѕирен.
„Системите со вештачка интелигенција имаат технички, правни и социјални одговорности“, рече тој. „Најголемиот ризик во моментов е тоа што личните податоци на корисниците можат да се користат за креирање профили – овие профили може да содржат чувствителни лични информации, како што се политички ставови, религиозни верувања и здравјето на една личност.“
„Доколку овие податоци се обработуваат без согласност на корисникот или со кршење на законот, тоа би покренало сериозни проблеми со приватноста“, рече тој.
Дургут тврдеше дека таквата обработка може да биде во спротивност со законите за заштита на податоците, вклучувајќи ја Општата регулатива за заштита на податоците (GDPR) на Европската Унија и Законот за заштита на личните податоци на Турција (KVKK), кои бараат информирана согласност, транспарентност и ограничувања за користење на чувствителни податоци.
„Овие прописи се засноваат на принципите на експлицитно давање согласност, минимизирање на податоците, ограничување на целта и транспарентност“, рече тој. „Ако овие „скриени“ профили се креирани со чувствителни етикети, ова претставува јасно кршење на законот.“
Тој, исто така, забележа дека, со оглед на тоа што полето на профилирање на корисници сè уште е во развој, независниот надзор останува слаб.
„Независните ревизори сè уште не се вклучени“, рече тој. „Споредувањето на корисничките влезни податоци со системските излези може да покаже како се етикетираат податоците – можете да добиете индиции со поставување неколку технички прашања за тоа кои податоци се обработуваат.“
Дургут рече дека како што четботовите стануваат поперсонализирани, се зголемува ризикот од дискриминација во области како што се вработување, рекламирање или кредитни одлуки.
„Ако системот на вештачка интелигенција погрешно етикетира некого како лице од одредено политичко мислење, етничко потекло или религија, тоа би можело да доведе до конкретна дискриминација – од персонализирани огласи до одбивања на работа, па сè до пристрасни финансиски проценки“, рече тој.
Тој предупреди дека протечените податоци од профилот би можеле да паднат во рацете на злонамерни актери, зголемувајќи го ризикот од напади со социјален инженеринг, уцени и измама со идентитет.
„Во случаите што вклучуваат јавни службеници или познати поединци, ваквите прекршувања би можеле да претставуваат закана за националната безбедност“, рече тој.
За да се намалат овие ризици, Дургут ги повика корисниците да избегнуваат споделување чувствителни лични податоци со платформи за вештачка интелигенција и советуваше префрлување помеѓу различни алатки за да се минимизира изложеноста.
„Развивачите на вештачка интелигенција мора јасно да објаснат како ги обработуваат податоците на корисниците и мора да ги ажурираат своите политики за користење на начини што се лесни за разбирање од јавноста“, рече тој.
„Овие фирми треба редовно да покануваат независни ревизори да ги оценуваат нивните апликации, да ги објавуваат резултатите и да им даваат на корисниците поголема контрола врз нивните податоци“, рече тој, додавајќи дека е исто така од суштинско значење и силно внатрешно управување – вклучувајќи етички комитети и применливи политики.