トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akash ML
AI開発はもう以前と同じにはなりません。@ovrclk_が@akashnetに建てました。
OpenAIは機密政府ネットワーク内に展開しています。クローズドで中央集権的なAIプラットフォームを構築すると、利用規約を信頼することになり、その利用規約はあなたの入力なしにいつでも変更される可能性があります。
オープンソースの道筋は非常に異なっています:
→ モデルがデータで何をしているかを正確に検証できます
→ あなたは単一の保険会社の方針や決定に依存していません
→ あなたのインフラは指示された場所ではなく、あなたが選ぶ場所で動く
AkashMLは80+のグローバルデータセンターで高性能推論を提供します。
完全にオープンで、完全に持ち運び可能で、誰にでも作られています。
AkashMLを試してみてください:

Crypto Miners3月1日 20:57
OpenAIは戦争省と合意に達しました
@OpenAI厳格な条件下でDoWの機密ネットワーク内に自社モデルを展開する計画です。サム・アルトマン氏は、省が安全を強く尊重しており、条件は現行の法律や方針と一致していると述べています。
この合意には、OpenAIの中核原則に結びついた安全策が含まれており、国内の大規模監視の禁止や、武力行使の責任を人間に負わせることが含まれています。また、DoWからの要請、クラウドのみの展開、そしてモデルが意図通りに動作することを確認するための専用監督チームの設置も必要です。
アルトマン氏はさらに、OpenAIがすべてのAI企業に同様の基準を適用することを望み、法的紛争よりも協力を優先することを強調し、目標は複雑で時に危険な世界で人類に奉仕することであると述べました。

278
中央集権型AIプラットフォームは、あなたの独自データを学習し、それを競合他社にフィードバックしています。
解決策は簡単です:
→ オープンソースモデルを自社のプライベートデプロイで実行
→ あなたの入力はインフラから決して出ません
→ あなたのデータがモデルを訓練するのであって、相手のものではありません
AkashMLは推論プラットフォームであり、データ操作ではありません。
私たちはあなたにLlama 3.3 70Bを100万トークンあたり0.13ドルで運営するためのチップを提供します。
ドロップインAPI互換性により、主要なプロバイダーからは数分で移行できます。
あなたは商品ではありません。あなたがオーナーです。
自分の目で確かめてください ↓

Guri Singh2026年2月28日
🚨 スタンフォード大学はアメリカの6大AI企業のプライバシーポリシーを分析しました。
アマゾン。人間的です。Googleで調べてみてください。メタ。マイクロソフト。OpenAI。
6人全員があなたの会話を使ってモデルを訓練します。デフォルトで。意味のある質問もなく。
実際にその論文が発見したのは以下の通りです。
スタンフォードHAIの研究者たちは、これら6社にわたる28件のプライバシー文書だけでなく、主要なプライバシーポリシーだけでなく、チャットインターフェースからアクセス可能なすべての関連サブポリシー、FAQ、ガイダンスページを調査しました。
彼らはこれらすべてを、アメリカで最も包括的なプライバシー法であるカリフォルニア消費者プライバシー法と照合して評価しました。
結果は思っているよりも悪い。
すべての企業はチャットデータを収集し、デフォルトでモデルトレーニングにフィードバックしています。会話を無期限に保持する人もいます。期限はありません。自動削除もありません。あなたのデータは永遠にそこに置かれ、将来のモデルのバージョンに供給されています。
これらの会社の中には、研修の一環として人間の従業員にチャットの書き起こしを読ませる会社もあります。匿名の要約ではありません。実際の会話です。
しかし、ここからが本当に危険なところです。
Google、Meta、Microsoft、Amazonのように検索エンジン、ソーシャルメディアプラットフォーム、eコマースサイト、クラウドサービスも運営する企業にとって、AIの会話はチャットボット内にとどまりません。
それらはすでに知っている企業の他の情報と統合されます。
検索履歴。あなたの購入情報です。あなたのソーシャルメディアの活動。アップロードしたファイル。
研究者たちは、あなたが立ち止まって考えさせられる現実的なシナリオを描写しています。AIチャットボットに心臓に良い夕食のレシピを尋ねる場合です。モデルは心血管疾患がある可能性があると推測しています。この分類は同社の広範なエコシステム全体に流れ込んでいます。薬の広告が目にし始めます。その情報は保険のデータベースに届きます。その影響は時間とともに積み重なっていきます。
夕食の質問を共有した。システムは健康プロファイルを構築しました。
子どもたちのデータを見ると状況はさらに悪化します。
6社中4社は、モデルトレーニングに子どものチャットデータを含んでいるようです。Googleはオプトイン同意のもと、ティーンエイジャーのデータを用いたトレーニングを行うと発表しました。Anthropicは子どものデータを収集していないが、年齢の確認もしていないと述べています。マイクロソフトは18歳未満のユーザーからデータを収集していると述べていますが、トレーニングには使用していないと主張しています。
子どもは法的にこれに同意することはできません。ほとんどの親はそれが起きていることに気づいていません。
オプトアウトの仕組みは迷路のようです。
一部の会社はオプトアウトを提供しています。そうでない人もいます。設定ページの奥深くにオプションを埋めているものは、ほとんどのユーザーが見つけられないものです。プライバシーポリシー自体は、これらの文書を読む仕事を持つ研究者たちが解釈しづらい難解な法律用語で書かれています。
そして、誰も取り組んでいない構造的な問題があります。
アメリカ合衆国には、AI企業がチャットデータの扱いをどのように扱うかを規定する包括的な連邦プライバシー法は存在しません。州法の寄せ集めが大きなギャップを生み出しています。研究者たちは具体的に3つのことを求めています。連邦規制の義務化、モデルトレーニングに対する積極的なオプトイン(オプトアウトではない)、そしてチャット入力から個人情報がトレーニングパイプラインに到達する前に自動的にフィルタリングすることです。
それらは現在存在しません。
不快な真実はこうです:ChatGPT、Gemini、Claude、Meta AI、Copilot、Alexaに何かを入力するたびに、あなたはトレーニングデータセットに貢献しているのです。あなたの医療に関する質問です。あなたの恋愛の問題。あなたの財務情報。アップロードした書類です。
あなたは顧客ではありません。あなたがカリキュラムそのものです。
そして、こうした会社はあなたがやめるのをできるだけ難しくしています。

167
トップ
ランキング
お気に入り
