Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
Dezvoltarea AI nu va mai fi niciodată la fel. Construit de @ovrclk_ pe @akashnet.
OpenAI se implementează în rețele guvernamentale clasificate. Când construiești pe platforme AI închise și centralizate, ai încredere în termenii lor de utilizare, iar acei termeni se pot schimba oricând, fără intervenția ta.
Calea open-source arată foarte diferit:
→ Poți verifica exact ce fac modelele tale cu datele tale
→ Nu depinzi de politicile sau deciziile unui singur furnizor
→ Infrastructura ta funcționează unde dorești, nu unde ți se spune
AkashML oferă inferențe de înaltă performanță în 80+ centre de date globale.
Complet deschis, complet portabil și construit pentru toată lumea.
Încearcă AkashML:

Crypto Miners1 mar., 20:57
OpenAI a ajuns la un acord cu Departamentul de Război
@OpenAI plănuiește să implementeze modelele sale în rețeaua clasificată a DoW, sub condiții stricte. Sam Altman spune că departamentul a arătat un respect puternic pentru siguranță și că termenii sunt în concordanță cu legea și politica existentă.
Acordul include garanții legate de principiile de bază ale OpenAI, inclusiv interdicții privind supravegherea în masă internă și responsabilizarea oamenilor pentru folosirea forței. De asemenea, necesită controale tehnice solicitate de DoW, implementare doar în cloud și echipe dedicate de supraveghere pentru a asigura că modelele se comportă conform intenției.
Altman a adăugat că OpenAI dorește ca standarde similare să fie aplicate tuturor companiilor de IA și a subliniat o preferință pentru cooperare în detrimentul conflictelor legale, spunând că scopul rămâne să servească umanitatea într-o lume complexă și uneori periculoasă.

244
Platformele AI centralizate se antrenează pe baza datelor tale proprietare și le transmit înapoi concurenților.
Soluția este simplă:
→ Rulează modele open-source pe propria ta implementare privată
→ Intrările tale nu părăsesc niciodată infrastructura
→ Datele tale antrenează modelele, nu ale lor
AkashML este o platformă de inferență, nu o operațiune de date.
Îți oferim jetoanele pentru a rula Llama 3.3 70B la 0.13$ la fiecare 1M token.
Compatibilitatea API-urilor drop-in înseamnă că poți migra de la orice furnizor major în câteva minute.
Tu nu ești produsul. Tu ești proprietarul.
Vezi cu ochii tăi ↓

Guri Singh28 feb. 2026
🚨 Stanford tocmai a analizat politicile de confidențialitate ale celor șase cele mai mari companii de inteligență artificială din America.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
Toți cei șase folosesc conversațiile tale pentru a-și antrena modelele. În mod implicit. Fără să întrebe cu adevărat.
Iată ce a descoperit de fapt ziarul.
Cercetătorii de la Stanford HAI au examinat 28 de documente de confidențialitate din aceste șase companii, nu doar politica principală de confidențialitate, ci și fiecare subpolitică, FAQ și pagina de ghidare accesibilă din interfețele de chat.
Le-au evaluat pe toate în raport cu California Consumer Privacy Act, cea mai cuprinzătoare lege a confidențialității din Statele Unite.
Rezultatele sunt mai rele decât crezi.
Fiecare companie colectează datele tale de chat și le reintroduce implicit în antrenamentul modelelor. Unii îți păstrează conversațiile la nesfârșit. Nu există expirare. Fără ștergere automată. Datele tale stau acolo, la nesfârșit, alimentând versiunile viitoare ale modelului.
Unele dintre aceste companii permit angajaților umani să citească transcrierile chatului tău ca parte a procesului de instruire. Nu sunt rezumate anonime. Conversațiile tale reale.
Dar aici devine cu adevărat periculos.
Pentru companii precum Google, Meta, Microsoft și Amazon, care folosesc și motoare de căutare, platforme de social media, site-uri de comerț electronic și servicii cloud, conversațiile tale AI nu rămân în interiorul chatbotului.
Ele se combină cu tot ce știu deja acele companii despre tine.
Istoricul tău de căutări. Datele tale de achiziție. Activitatea ta pe rețelele sociale. Fișierele tale încărcate.
Cercetătorii descriu un scenariu realist care ar trebui să te facă să te opresc: ceri unui chatbot AI rețete de cină sănătoase pentru inimă. Modelul sugerează că ai putea avea o afecțiune cardiovasculară. Această clasificare trece prin ecosistemul mai larg al companiei. Începi să vezi reclame la medicamente. Informațiile ajung în bazele de date de asigurări. Efectele se acumulează în timp.
Ai împărtășit o întrebare despre cină. Sistemul a construit un profil de sănătate.
Se înrăutățește când te uiți la datele copiilor.
Patru dintre cele șase companii par să includă datele de chat ale copiilor în antrenamentul lor model. Google a anunțat că se va antrena pe baza datelor adolescenților cu consimțământ opt-in. Anthropic spune că nu colectează date despre copii, dar nu verifică vârstele. Microsoft spune că colectează date de la utilizatori sub 18 ani, dar susține că nu le folosește pentru instruire.
Copiii nu pot consimți legal la acest lucru. Majoritatea părinților nu știu că se întâmplă.
Mecanismele de renunțare sunt un labirint.
Unele companii oferă opțiuni de retragere. Altele nu. Cei care o fac ascund opțiunea adânc în paginile de setări pe care majoritatea utilizatorilor nu le vor găsi niciodată. Politicile de confidențialitate sunt scrise într-un limbaj juridic dens, pe care cercetătorii care se ocupă de citirea acestor documente l-au găsit dificil de interpretat.
Și iată problema structurală pe care nimeni nu o abordează.
Nu există o lege federală cuprinzătoare a confidențialității în Statele Unite care să reglementeze modul în care companiile de IA gestionează datele de chat. Mozaicul de legi de stat lasă goluri uriașe. Cercetătorii solicită în mod specific trei lucruri: reglementare federală obligatorie, opt-in afirmativ (nu opt-out) pentru antrenamentul modelului și filtrarea automată a informațiilor personale din inputurile de chat înainte ca acestea să ajungă la un flux de instruire.
Niciuna dintre acestea nu mai există astăzi.
Adevărul inconfortabil este acesta: de fiecare dată când tastezi ceva în ChatGPT, Gemini, Claude, Meta AI, Copilot sau Alexa, contribui la un set de date de antrenament. Întrebările tale medicale. Problemele tale de relație. Detaliile tale financiare. Documentele tale încărcate.
Tu nu ești clientul. Tu ești curriculumul.
Iar companiile care fac asta au făcut cât mai dificil pentru tine să te oprești.

145
Limită superioară
Clasament
Favorite
