Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Rozwój AI już nigdy nie będzie taki sam. Zbudowany przez @ovrclk_ w @akashnet.
OpenAI wdraża się w klasyfikowanych sieciach rządowych. Kiedy budujesz na zamkniętych, scentralizowanych platformach AI, polegasz na ich warunkach korzystania, a te warunki mogą się zmieniać w dowolnym momencie bez twojego wkładu.
Ścieżka open-source wygląda zupełnie inaczej:
→ Możesz dokładnie zweryfikować, co twoje modele robią z twoimi danymi
→ Nie jesteś zależny od polityki lub decyzji jednego dostawcy
→ Twoja infrastruktura działa tam, gdzie wybierzesz, a nie tam, gdzie ci powiedziano
AkashML dostarcza wysokowydajną inferencję w ponad 80 globalnych centrach danych.
Całkowicie otwarte, całkowicie przenośne i stworzone dla wszystkich.
Wypróbuj AkashML:

Crypto Miners1 mar, 20:57
OpenAI osiągnęło porozumienie z Departamentem Wojny
@OpenAI planuje wdrożyć swoje modele w klasyfikowanej sieci DoW pod ścisłymi warunkami. Sam Altman mówi, że departament wykazał silny szacunek dla bezpieczeństwa i że warunki są zgodne z obowiązującym prawem i polityką.
Umowa obejmuje zabezpieczenia związane z podstawowymi zasadami OpenAI, w tym zakazy dotyczące krajowego masowego nadzoru oraz utrzymanie odpowiedzialności ludzi za użycie siły. Wymaga również technicznych kontroli żądanych przez DoW, wdrożenia wyłącznie w chmurze oraz dedykowanych zespołów nadzorujących, aby zapewnić, że modele działają zgodnie z zamierzeniami.
Altman dodał, że OpenAI chce, aby podobne standardy były stosowane we wszystkich firmach zajmujących się AI i podkreślił preferencję dla współpracy zamiast konfliktów prawnych, mówiąc, że celem pozostaje służenie ludzkości w złożonym i czasami niebezpiecznym świecie.

274
Zcentralizowane platformy AI szkolą się na Twoich danych własnościowych i przekazują je z powrotem do Twoich konkurentów.
Rozwiązanie jest proste:
→ Uruchom modele open-source na własnym prywatnym wdrożeniu
→ Twoje dane nigdy nie opuszczają Twojej infrastruktury
→ Twoje dane szkolą Twoje modele, a nie ich
AkashML to platforma inferencyjna, a nie operacja danych.
Dajemy Ci chipy do uruchomienia Llama 3.3 70B za 0,13 USD za 1M tokenów.
Kompatybilność API oznacza, że możesz migrować z dowolnego głównego dostawcy w ciągu kilku minut.
Nie jesteś produktem. Jesteś właścicielem.
Przekonaj się sam ↓

Guri Singh28 lut 2026
🚨 Stanford właśnie przeanalizował polityki prywatności sześciu największych firm AI w Ameryce.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Wszystkie sześć wykorzystuje twoje rozmowy do trenowania swoich modeli. Domyślnie. Bez znaczącego pytania.
Oto, co naprawdę odkryto w pracy.
Badacze z Stanford HAI zbadali 28 dokumentów dotyczących prywatności w tych sześciu firmach - nie tylko główną politykę prywatności, ale także każdą powiązaną subpolitykę, FAQ i stronę z wytycznymi dostępną z interfejsów czatu.
Ocenili je wszystkie w kontekście Kalifornijskiej Ustawy o Prywatności Konsumentów, najbardziej kompleksowej ustawy o prywatności w Stanach Zjednoczonych.
Wyniki są gorsze, niż myślisz.
Każda z tych firm zbiera twoje dane czatu i wprowadza je z powrotem do treningu modeli domyślnie. Niektóre przechowują twoje rozmowy na czas nieokreślony. Nie ma terminu ważności. Brak automatycznego usuwania. Twoje dane po prostu tam leżą, na zawsze, zasilając przyszłe wersje modelu.
Niektóre z tych firm pozwalają pracownikom na czytanie twoich transkryptów czatu jako część procesu treningowego. Nie zanonimizowane podsumowania. Twoje rzeczywiste rozmowy.
Ale oto, gdzie staje się to naprawdę niebezpieczne.
Dla firm takich jak Google, Meta, Microsoft i Amazon - firm, które również prowadzą wyszukiwarki, platformy mediów społecznościowych, strony e-commerce i usługi chmurowe - twoje rozmowy z AI nie pozostają w obrębie czatu.
Są łączone z wszystkim, co te firmy już o tobie wiedzą.
Twoja historia wyszukiwania. Twoje dane zakupowe. Twoja aktywność w mediach społecznościowych. Twoje przesłane pliki.
Badacze opisują realistyczny scenariusz, który powinien cię zatrzymać: pytasz czatbota AI o przepisy na zdrowe kolacje. Model wywnioskuje, że możesz mieć problemy z sercem. Ta klasyfikacja przepływa przez szerszy ekosystem firmy. Zaczynasz widzieć reklamy leków. Informacje trafiają do baz danych ubezpieczeń. Efekty kumulują się z czasem.
Podzieliłeś się pytaniem o kolację. System zbudował profil zdrowotny.
Jest jeszcze gorzej, gdy spojrzysz na dane dzieci.
Cztery z sześciu firm wydają się uwzględniać dane czatu dzieci w swoim treningu modeli. Google ogłosił, że będzie trenować na danych nastolatków za zgodą. Anthropic twierdzi, że nie zbiera danych dzieci, ale nie weryfikuje wieku. Microsoft mówi, że zbiera dane od użytkowników poniżej 18 roku życia, ale twierdzi, że nie używa ich do treningu.
Dzieci nie mogą legalnie wyrazić zgody na to. Większość rodziców nie wie, że to się dzieje.
Mechanizmy rezygnacji są labiryntem.
Niektóre firmy oferują możliwość rezygnacji. Niektóre nie. Te, które to robią, ukrywają tę opcję głęboko w ustawieniach, które większość użytkowników nigdy nie znajdzie. Polityki prywatności same w sobie są napisane gęstym językiem prawnym, który badacze - ludzie, których praca polega na czytaniu tych dokumentów - uznali za trudny do zinterpretowania.
A oto strukturalny problem, którego nikt nie porusza.
Nie ma kompleksowej federalnej ustawy o prywatności w Stanach Zjednoczonych regulującej, jak firmy AI obsługują dane czatu. Mozaika stanowych ustaw pozostawia ogromne luki. Badacze szczególnie wzywają do trzech rzeczy: obowiązkowej regulacji federalnej, afirmatywnej zgody (a nie rezygnacji) na trening modeli oraz automatycznego filtrowania informacji osobistych z wejść czatu, zanim kiedykolwiek trafią do pipeline'u treningowego.
Żadne z tych rzeczy nie istnieje dzisiaj.
Niewygodna prawda jest taka: za każdym razem, gdy wpisujesz coś w ChatGPT, Gemini, Claude, Meta AI, Copilot lub Alexę, przyczyniasz się do zbioru danych treningowych. Twoje pytania medyczne. Twoje problemy z relacjami. Twoje szczegóły finansowe. Twoje przesłane dokumenty.
Nie jesteś klientem. Jesteś programem nauczania.
A firmy, które to robią, uczyniły to tak trudnym, jak to możliwe, abyś mógł to zatrzymać.

163
Najlepsze
Ranking
Ulubione
