ChatGPT е популярен чатбот, разработен от OpenAI, с доста развити възможности и функционалности. Той е изграден на базата на големия генеративен предварително обучен езиков модел GPT (generative pre-trained transformer) и поддържа достъп до огромно количество информация, използвана за обучение.
Въпреки че издигането му до значимост беше предизвикано от вълнение и очакване, бяха изразени опасения относно сигурността на данните, които платформата използва за целите на обучението.
Важно е да се знае, че ChatGPT не е конфиденциален инструмент и всеки диалог се записва и съхранява като данни за обучение. Политиката за поверителност ясно посочва, че данните на потребителите, включително входни данни, качване на файлове или обратна връзка, ще бъдат събирани и използвани за обучение на широкомащабни езикови модели.
Освен това OpenAI е интегрирала доста трудни функционалности за контрол на достъпа. Това гарантира, че данните, които програмата събира, се наблюдават само от оторизираните лица.
Също така това се отнася и до различни механизми за удостоверяване, които са защитени от внимателно изградени системи за контрол на достъпа, въведени от изследователската компания.
Това, което прави ChatGPT впечатляваща платформа, е масивното събиране на данни, което е неразделна част от функционирането ѝ. Въпреки това начинът, по който OpenAI обработва тези данни, е от решаващо значение за безопасността на програмата.
OpenAI гарантира сигурността при използване на ChatGPT чрез криптиране. Сървърите, които захранват ChatGPT, са проектирани така, че да защитават потребителските данни от неоторизиран достъп, независимо дали са в покой или се пренасят.
Системата също така криптира данните, които получава и прехвърля между различни системи.
Също така OpenAI провежда ежегодни одити от трети страни, за да наблюдава потенциални уязвимости в своите мерки за сигурност. Този процес позволява на системата да еволюира с потенциалните проблеми на сигурността и обективно да се търси къде тези мерки трябва да бъдат адресирани, преоценени и реинтегрирани.
Програмата за награди при откриване на грешки на OpenAI позволява на потребителите, занимаващи се с изследване на сигурността, и други лица да откриват уязвими аспекти на системата и да докладват за тях.
Този процес спомага за подобряване на мерките за безопасност чрез активни усилия от страна на много хора.
Освен това OpenAI разполага със система за реагиране при инциденти, която предприема действия срещу всяко забелязано нарушение на сигурността. Тези системи помагат за намаляване на излагането на риск и за разработване на оптимални действия за реагиране в случай на пробив в системата.
На въпроса дали програмата е безопасна може да се отговори доста просто – да. Програмата е проектирана така, че да генерира подобни на човешките отговори на конкретни въпроси по безопасен начин.
OpenAI е приложила множество мерки за сигурност, целящи да гарантират безопасността на потребителите. Освен това OpenAI работи с изследователска компанията, за да направи програмата възможно най-безопасна.
Първата седмица на юли носи няколко важни събития в САЩ, които могат да повлияят както на традиционните пазари, така и на сектора на криптовалутите.
Рик Еделман, един от най-влиятелните гласове в областта на личните финанси, радикално промени позицията си по отношение на разпределението на криптовалутите. След години на предпазлив оптимизъм, той вече вярва, че дигиталните активи заслужават много по-голям дял в инвестиционните портфейли от всякога.
В делото срещу Terraform Labs и нейния съосновател До Куон защитата поиска от Федералния съд за Южния окръг на Ню Йорк да удължи срока за подаване на документи преди съдебния процес с две седмици, като го отложи след първоначалната дата 1 юли 2025 г.
Брайън Армстронг, главен изпълнителен директор на Coinbase, отбеляза значително ускорение в приема на криптовалутите от институционалните инвеститори, което се дължи до голяма степен на нарастващата популярност на спот борсово търгуваните фондове и увеличената употреба на Coinbase Prime сред големите корпорации.