Начало » Регулации » Опасностите от изкуствения интелект: Байдън се среща с директорите на Google и Microsoft

Опасностите от изкуствения интелект: Байдън се среща с директорите на Google и Microsoft

05.05.2023 18:00 2 мин. четене Kosta Gushterov
СПОДЕЛИ: СПОДЕЛЯНИЯ
Опасностите от изкуствения интелект: Байдън се среща с директорите на Google и Microsoft

В четвъртък президентът Джо Байдън проведе среща с изпълнителните директори на водещи компании в областта на изкуствения интелект, включително Microsoft и Google, на която подчерта, че е важно да се гарантира безопасността на AI продуктите преди тяхното внедряване.

AI става все по-популярен през тази година, като много компании пускат на пазара продукти, подобни на ChatGPT. Появиха се обаче опасения относно нарушаването на неприкосновеността на личните данни и потенциалните измами и кампании за дезинформация.

Байдън, който е експериментирал с ChatGPT, изрази необходимостта да се намалят рисковете от AI за хората, обществото и националната сигурност.

На срещата беше обсъдено значението на прозрачността с политиците, оценката на безопасността на продуктите и защитата им от злонамерени атаки.

Вицепрезидентът Камала Харис изрази потенциални опасения, свързани с безопасността, неприкосновеността на личния живот и гражданските права, като подчерта правната отговорност на компаниите да гарантират безопасността на своите AI продукти.

Националната научна фондация обяви инвестиция в размер на $140 милиона за създаване на седем нови AI изследователски института, а федералното правителство публикува политически насоки за използването на AI.

Въпреки това регулаторните органи на САЩ не успяват да се справят със стриктното регулиране на технологиите от страна на европейските правителства. За да се справи с това, Съветът за търговия и технологии между САЩ и ЕС си сътрудничи по този въпрос.

Администрацията на Байдън въведе законопроект за правата на AI, рамка за управление на риска и изпълнителна заповед, с която задължава федералните агенции да премахнат предубежденията по отношение на AI.

Освен това Федералната търговска комисия и Отделът за граждански права към Министерството на правосъдието обещаха да използват своите правни правомощия за борба с вредите, свързани с AI.

Въпреки усилията на технологичните гиганти да се борят с пропагандата, фалшивите новини, порнографията, експлоатацията на деца и съобщенията, пораждащи омраза, те не са успешни.

Kоста работи в крипто индустрията от над 4 години. Той се стреми да представя различни гледни точки по дадена тема и харесва сектора заради неговата прозрачност и динамика. В работата си той се фокусира върху балансираното отразяване на събитията и развитието в крипто пространството, като предоставя информация на своите читатели от неутрална гледна точка.

Telegram

СПОДЕЛИ: СПОДЕЛЯНИЯ
Още Регулации Новини

Американският щат Кънектикът отхвърли криптовалутите със закон

Кънектикът предприе ясни стъпки, за да изключи дигиталните активи от правителствените дела.

12.06.2025 17:00 1 мин. четене Alexander Zdravkov

Швейцария се готви да се присъедини към глобалната мрежа за данъчно облагане на криптовалутите

Швейцария се готви да започне автоматичен обмен на данни за крипто активи с над 70 държави, включително всички държави-членки на ЕС и Обединеното кралство, като част от по-широка инициатива за международна данъчна прозрачност.

07.06.2025 21:00 2 мин. четене Alexander Zdravkov

ЕС обмисля правила за децентрализираните финанси – какви са особеностите?

Докато Европейският съюз се подготвя за следващата фаза на надзора върху криптовалутите, регулаторните органи насочват вниманието си към децентрализираните финанси (DeFi) – без да имат ясна дефиниция за това какво всъщност означава децентрализация.

07.06.2025 19:00 2 мин. четене Alexander Zdravkov

Русия спира разширяването на ограниченията върху крипто майнинга

В изненадваща промяна Русия отложи плановете си за разширяване на репресиите срещу крипто майнинга, като избра икономическата стабилност пред по-строгия контрол върху енергията.

07.06.2025 12:00 2 мин. четене Alexander Stefanov
Все още няма коментари!

Вашият имейл адрес няма да бъде публикуван.