🚨 Stanford analyserade precis integritetspolicyn för de sex största AI-företagen i USA. Amazon. Antropiskt. Google. Meta. Microsoft. OpenAI. Alla sex använder dina samtal för att träna sina modeller. Som standard. Utan att fråga meningsfullt. Här är vad artikeln faktiskt fann. Forskarna vid Stanford HI granskade 28 integritetsdokument från dessa sex företag, inte bara huvudpolicyn utan alla länkade underpolicys, FAQ och vägledningssidor som är tillgängliga via chattgränssnitten. De utvärderade alla mot California Consumer Privacy Act, den mest omfattande integritetslagen i USA. Resultaten är värre än du tror. Varje företag samlar in din chattdata och matar tillbaka den till modellträning som standard. Vissa behåller dina samtal på obestämd tid. Det finns ingen utgångstid. Ingen automatisk radering. Din data ligger bara där, för evigt, och matar framtida versioner av modellen. Vissa av dessa företag låter mänskliga anställda läsa dina chatttranskriptioner som en del av utbildningsprocessen. Inte anonymiserade sammanfattningar. Dina faktiska samtal. Men här blir det verkligen farligt. För företag som Google, Meta, Microsoft och Amazon som också driver sökmotorer, sociala medieplattformar, e-handelssajter och molntjänster stannar inte dina AI-konversationer kvar i chattboten. De slås ihop med allt annat som företagen redan vet om dig. Din sökhistorik. Dina köpdata. Din aktivitet på sociala medier. Dina uppladdade filer. Forskarna beskriver ett realistiskt scenario som borde få dig att stanna upp: Du ber en AI-chatbot om recept på hjärtvänlig middag. Modellen antar att du kan ha en hjärt-kärlsjukdom. Den klassificeringen genomsyrar företagets bredare ekosystem. Du börjar se annonser för mediciner. Informationen når försäkringsdatabaser. Effekterna ökar över tid. Ni delade en middagsfråga. Systemet byggde en hälsoprofil. ...