Binance Square

anthropic

31,420 показвания
103 обсъждат
Aleksandr1981
·
--
Регулируй меня нежно: крупнейшие AI-компании лоббируют лояльность ВашингтонаКомпании, создающие самый мощный искусственный интеллект(AI) в мире, стали одновременно и главными лоббистами, определяющими правила его регулирования. OpenAI и Anthropic в 2025 году потратили на федеральное лоббирование больше, чем за все предыдущие годы своей работы, — и это далеко не случайное совпадение. Anthropic израсходовала на прямое федеральное лоббирование $3,13 млн, OpenAI — $2,99 млн. Плюс примерно по $300 000 каждая на лоббирование в Калифорнии. Обе компании, оцениваемые в $380 млрд и $830 млрд соответственно, начали заниматься лоббированием лишь в 2023 году. Для Anthropic 2025-й стал первым годом, когда компания публично задекларировала пожертвования в поддержку конкретных политических кандидатов. Красивые слова — и большие чеки В прошлом месяце генеральный директор Anthropic Дарио Амодеи (Dario Amodei) опубликовал обширное эссе, в котором посетовал на нежелание технологической отрасли бросить вызов власти и на поддержку «крайне антирегуляторных политик в сфере AI». Его рецепт звучал благородно: содержательный государственный курс важнее политической конъюнктуры. Вот только проповедовать дистанцию от политики, одновременно согласовывая девятизначные государственные контракты, — задача, с которой не справится ни одна корпоративная этика. Конфликт Anthropic с Министерством обороны США вокруг контракта на $200 млн — на разработку AI для задач национальной безопасности — наглядно показывает, насколько иллюзорна та «независимость», о которой рассуждает Амодеи. Об этом противостоянии первым сообщил Axios. На прошлой неделе Anthropic объявила о пожертвовании $20 млн организации Public First Action, выступающей за более строгое регулирование AI. Компания представила это как «двухпартийный шаг» — хотя продвигаемые ею позиции явно расходятся с курсом администрации Трампа, «AI-царя» Дэвида Сакса (David Sacks) и общей антирегуляторной логикой индустрии. Там, где интересы совпадают Если снять верхний слой риторики, на федеральном уровне OpenAI и Anthropic куда больше похожи друг на друга, чем хотели бы признавать. В августе обе компании заключили соглашения, позволяющие государственным ведомствам пользоваться их моделями за $1. В сентябре xAI Илона Маска (Elon Musk) предложил аналогичные условия за $0,42. Еще в 2024 году OpenAI тихо убрала из своих условий использования формулировку, запрещавшую военные применения моделей. Аргумент для Вашингтона прост и понятен: быстрее масштабируйся — крепче стоишь в конкуренции с Китаем. Главный директор по глобальным вопросам OpenAI Крис Лехан (Chris Lehane) в письме в Офис научно-технической политики Белого дома написал, что «императив национальной безопасности вести мир в сфере AI открывает уникальную за столетие возможность укрепить нашу экономику». В лоббистских материалах Anthropic прямо упоминается законопроект GAIN AI Act, который ограничил бы продажу передовых AI-чипов таким странам, как Китай и Россия, предоставив американским покупателям преимущественное право первоочередной покупки перед экспортом. Тема приобрела особую остроту: Nvidia теперь вправе продавать свои передовые чипы H200 китайским компаниям — после многолетних переговоров. Что касается Сэма Альтмана (Sam Altman), он публично усомнился в эффективности экспортных ограничений: «Работа президента — обеспечить победу Америки. Наша миссия — служить всему человечеству… здесь есть противоречие», — заявил он Forbes. Компании, пишущие технические спецификации для AI-моделей, одновременно выписывают крупнейшие чеки в Вашингтоне. Они убеждают власти, что скорость — это патриотизм, масштаб — это безопасность, а их коммерческий успех — это благо для страны. До тех пор, пока Конгресс не докажет обратное, они остаются одновременно и субъектами регулирования, и главными голосами, это регулирование формирующими. Мнение AI Исторический паттерн здесь узнаваем до боли. Microsoft в 1990-х годах принципиально игнорировала Вашингтон — и получила многолетнее антимонопольное преследование, едва не закончившееся принудительным разделением компании. Урок оказался заразительным: опыт Microsoft стал учебником для Google, которая выстроила мощную лоббистскую машину заблаговременно — и благополучно закрыла антимонопольное расследование FTC в 2013 году. OpenAI и Anthropic, судя по всему, изучили оба прецедента и пропустили стадию «мы вне политики». #AImodel #AI #OpenAI #Anthropic #Write2Earn $BTC {spot}(BTCUSDT)

Регулируй меня нежно: крупнейшие AI-компании лоббируют лояльность Вашингтона

Компании, создающие самый мощный искусственный интеллект(AI) в мире, стали одновременно и главными лоббистами, определяющими правила его регулирования. OpenAI и Anthropic в 2025 году потратили на федеральное лоббирование больше, чем за все предыдущие годы своей работы, — и это далеко не случайное совпадение.
Anthropic израсходовала на прямое федеральное лоббирование $3,13 млн, OpenAI — $2,99 млн. Плюс примерно по $300 000 каждая на лоббирование в Калифорнии. Обе компании, оцениваемые в $380 млрд и $830 млрд соответственно, начали заниматься лоббированием лишь в 2023 году. Для Anthropic 2025-й стал первым годом, когда компания публично задекларировала пожертвования в поддержку конкретных политических кандидатов.
Красивые слова — и большие чеки
В прошлом месяце генеральный директор Anthropic Дарио Амодеи (Dario Amodei) опубликовал обширное эссе, в котором посетовал на нежелание технологической отрасли бросить вызов власти и на поддержку «крайне антирегуляторных политик в сфере AI». Его рецепт звучал благородно: содержательный государственный курс важнее политической конъюнктуры.
Вот только проповедовать дистанцию от политики, одновременно согласовывая девятизначные государственные контракты, — задача, с которой не справится ни одна корпоративная этика. Конфликт Anthropic с Министерством обороны США вокруг контракта на $200 млн — на разработку AI для задач национальной безопасности — наглядно показывает, насколько иллюзорна та «независимость», о которой рассуждает Амодеи. Об этом противостоянии первым сообщил Axios.
На прошлой неделе Anthropic объявила о пожертвовании $20 млн организации Public First Action, выступающей за более строгое регулирование AI. Компания представила это как «двухпартийный шаг» — хотя продвигаемые ею позиции явно расходятся с курсом администрации Трампа, «AI-царя» Дэвида Сакса (David Sacks) и общей антирегуляторной логикой индустрии.
Там, где интересы совпадают
Если снять верхний слой риторики, на федеральном уровне OpenAI и Anthropic куда больше похожи друг на друга, чем хотели бы признавать. В августе обе компании заключили соглашения, позволяющие государственным ведомствам пользоваться их моделями за $1. В сентябре xAI Илона Маска (Elon Musk) предложил аналогичные условия за $0,42. Еще в 2024 году OpenAI тихо убрала из своих условий использования формулировку, запрещавшую военные применения моделей.
Аргумент для Вашингтона прост и понятен: быстрее масштабируйся — крепче стоишь в конкуренции с Китаем. Главный директор по глобальным вопросам OpenAI Крис Лехан (Chris Lehane) в письме в Офис научно-технической политики Белого дома написал, что «императив национальной безопасности вести мир в сфере AI открывает уникальную за столетие возможность укрепить нашу экономику».
В лоббистских материалах Anthropic прямо упоминается законопроект GAIN AI Act, который ограничил бы продажу передовых AI-чипов таким странам, как Китай и Россия, предоставив американским покупателям преимущественное право первоочередной покупки перед экспортом. Тема приобрела особую остроту: Nvidia теперь вправе продавать свои передовые чипы H200 китайским компаниям — после многолетних переговоров.
Что касается Сэма Альтмана (Sam Altman), он публично усомнился в эффективности экспортных ограничений: «Работа президента — обеспечить победу Америки. Наша миссия — служить всему человечеству… здесь есть противоречие», — заявил он Forbes.
Компании, пишущие технические спецификации для AI-моделей, одновременно выписывают крупнейшие чеки в Вашингтоне. Они убеждают власти, что скорость — это патриотизм, масштаб — это безопасность, а их коммерческий успех — это благо для страны. До тех пор, пока Конгресс не докажет обратное, они остаются одновременно и субъектами регулирования, и главными голосами, это регулирование формирующими.
Мнение AI
Исторический паттерн здесь узнаваем до боли. Microsoft в 1990-х годах принципиально игнорировала Вашингтон — и получила многолетнее антимонопольное преследование, едва не закончившееся принудительным разделением компании. Урок оказался заразительным: опыт Microsoft стал учебником для Google, которая выстроила мощную лоббистскую машину заблаговременно — и благополучно закрыла антимонопольное расследование FTC в 2013 году. OpenAI и Anthropic, судя по всему, изучили оба прецедента и пропустили стадию «мы вне политики».
#AImodel #AI #OpenAI #Anthropic #Write2Earn
$BTC
军事化 AI:Claude、马杜罗与人工智能军备竞赛本周,《华尔街日报》(WSJ)的一则深度报道震惊了科技界:美国军队涉嫌在针对委内瑞拉总统马杜罗的行动中使用了 Anthropic 公司的 Claude 模型。 🕵️‍♂️ Claude 参与特种作战? 报道指出,尽管 Anthropic 一直标榜自己是“安全”的人工智能公司,但其模型已通过合作伙伴渗透进军事领域: 背景: Anthropic 的公开政策严禁将 AI 用于暴力、武器开发或监控。关键纽带: Claude 进入国防部体系是通过 Palantir Technologies 实现的,后者的软件被广泛用于美军和联邦执法部门。罗生门: 尽管 Anthropic 否认了相关说法,但记者提到有内部员工曾私下询问该模型在“抓捕行动”中具体发挥了什么作用。 ⚔️ 五角大楼向“四大巨头”施压 据 Axios 援引消息人士称,美国国防部正在向 Anthropic、Google、OpenAI 和 xAI 这四家领先的 AI 公司施压,要求其允许军方将技术用于“所有合法目的”。这意味着民用聊天机器人与军事工具之间的界限正在变得模糊。 🚀 “蜂群”计划:马斯克与 OpenAI 进场 与此同时,一项价值 1 亿美元 的自动武器软件竞标浮出水面: SpaceX 与 xAI (马斯克): 计划开发一种能管理“无人机蜂群”的系统,将指挥官的语音指令转化为数字指令。OpenAI: 正在支持 Applied Intuition 公司的竞标,侧重于开发“任务控制中心”元素,以处理语音指令分发。 💎 为什么加密货币投资者需要关注? AI 板块代币: 此类新闻直接影响 AI 赛道相关代币(如 $FET,  NEAR 等)的情绪,展示了 AI 技术在极端现实场景中的应用。去中心化的价值: 随着政府对顶级大模型的控制加深,不受单一实体约束的去中心化 AI 网络的价值愈发凸显。 💡 观点: 我们正在进入“自动战争”时代,未来的胜负可能取决于模型的学习速度。 你认为 AI 公司应该保持中立,还是与军方的合作已不可避免?欢迎在评论区讨论! #AI #人工智能 #Anthropic #OpenAI #马斯克

军事化 AI:Claude、马杜罗与人工智能军备竞赛

本周,《华尔街日报》(WSJ)的一则深度报道震惊了科技界:美国军队涉嫌在针对委内瑞拉总统马杜罗的行动中使用了 Anthropic 公司的 Claude 模型。
🕵️‍♂️ Claude 参与特种作战?
报道指出,尽管 Anthropic 一直标榜自己是“安全”的人工智能公司,但其模型已通过合作伙伴渗透进军事领域:
背景: Anthropic 的公开政策严禁将 AI 用于暴力、武器开发或监控。关键纽带: Claude 进入国防部体系是通过 Palantir Technologies 实现的,后者的软件被广泛用于美军和联邦执法部门。罗生门: 尽管 Anthropic 否认了相关说法,但记者提到有内部员工曾私下询问该模型在“抓捕行动”中具体发挥了什么作用。
⚔️ 五角大楼向“四大巨头”施压
据 Axios 援引消息人士称,美国国防部正在向 Anthropic、Google、OpenAI 和 xAI 这四家领先的 AI 公司施压,要求其允许军方将技术用于“所有合法目的”。这意味着民用聊天机器人与军事工具之间的界限正在变得模糊。
🚀 “蜂群”计划:马斯克与 OpenAI 进场
与此同时,一项价值 1 亿美元 的自动武器软件竞标浮出水面:
SpaceX 与 xAI (马斯克): 计划开发一种能管理“无人机蜂群”的系统,将指挥官的语音指令转化为数字指令。OpenAI: 正在支持 Applied Intuition 公司的竞标,侧重于开发“任务控制中心”元素,以处理语音指令分发。
💎 为什么加密货币投资者需要关注?
AI 板块代币: 此类新闻直接影响 AI 赛道相关代币(如 $FET, 
NEAR 等)的情绪,展示了 AI 技术在极端现实场景中的应用。去中心化的价值: 随着政府对顶级大模型的控制加深,不受单一实体约束的去中心化 AI 网络的价值愈发凸显。
💡 观点: 我们正在进入“自动战争”时代,未来的胜负可能取决于模型的学习速度。
你认为 AI 公司应该保持中立,还是与军方的合作已不可避免?欢迎在评论区讨论!
#AI #人工智能 #Anthropic #OpenAI #马斯克
#Anthropic unveils Claude Code Security in limited preview #Anthropic has introduced Claude Code Security, an AI-powered tool designed to detect subtle vulnerabilities in codebases, including business logic flaws that traditional scanners often miss. In early testing, it flagged more than 500 previously undetected issues across open-source projects. The system uses a multi-stage verification process, assigns severity ratings, and proposes targeted patches, all routed through a human review dashboard. The rollout marks a deeper push into AI-assisted security auditing for development teams.
#Anthropic unveils Claude Code Security in limited preview

#Anthropic has introduced Claude Code Security, an AI-powered tool designed to detect subtle vulnerabilities in codebases, including business logic flaws that traditional scanners often miss.

In early testing, it flagged more than 500 previously undetected issues across open-source projects. The system uses a multi-stage verification process, assigns severity ratings, and proposes targeted patches, all routed through a human review dashboard.

The rollout marks a deeper push into AI-assisted security auditing for development teams.
Sam Bankman-Fried has reportedly tweeted from prison, claiming that his shares in #Anthropic would now be worth $30 billion. Stories like this remind me why I continue holding $ATM — in the world of crypto and tech, anything can happen. {spot}(ATMUSDT)
Sam Bankman-Fried has reportedly tweeted from prison, claiming that his shares in #Anthropic would now be worth $30 billion. Stories like this remind me why I continue holding $ATM — in the world of crypto and tech, anything can happen.
🎨 Figma 联手 Anthropic:设计将战胜“软件末日”吗? 当市场在讨论传统 SaaS 平台的衰落时,Figma 正全力以赴,宣布与 AI 巨头 Anthropic 达成战略合作。双方将 AI 代码生成与设计流程深度结合。 合作要点: ✅ 无缝集成: 现在可以将 AI 生成的界面直接导入 Figma 编辑器,方便团队进行后续开发、版本对比和评审。 ✅ 设计 > 代码: Figma 押注:即便 AI 编程代理普及,设计不仅不会被淘汰,反而会成为开发中更关键的环节。 ✅ 巨头协同: 对于估值已达 3800 亿美元的 Anthropic 来说,这是其扩大软件生态版图的重要一步。 股市表现 📉 受此消息提振,Figma 股价一度上涨 3.6% 至 23.35 美元。但挑战依然严峻:股价仍比 2025 年 8 月的峰值低了约 84%。2 月份的“软件末日(Soft-apocalypse)”抛售潮显示,投资者仍在担心 AI 是否会彻底颠覆此类公司的商业模式。 数据与 AI 布局: 📈 截至 2025 年第三季度,约 30% 年支出超过 10 万美元的大客户每周都会使用 Figma Make AI 工具。 🛠️ 公司已集成了 Google 的 Gemini 3 Pro 以及 OpenAI 的技术,推出了 Figma Draw、Figma Sites 和 Figma Buzz 等全套 AI 解决方案。 下一步动向: Figma 将于 2 月 18 日 发布第四季度财报。届时我们将看到,这些 AI 驱动的工具是真正在创收,还是仅仅在股价下跌时用来支撑信心的筹码。 #Figma #Anthropic #人工智能 #科技新闻 #投资 {spot}(BTCUSDT)
🎨 Figma 联手 Anthropic:设计将战胜“软件末日”吗?
当市场在讨论传统 SaaS 平台的衰落时,Figma 正全力以赴,宣布与 AI 巨头 Anthropic 达成战略合作。双方将 AI 代码生成与设计流程深度结合。
合作要点:
✅ 无缝集成: 现在可以将 AI 生成的界面直接导入 Figma 编辑器,方便团队进行后续开发、版本对比和评审。
✅ 设计 > 代码: Figma 押注:即便 AI 编程代理普及,设计不仅不会被淘汰,反而会成为开发中更关键的环节。
✅ 巨头协同: 对于估值已达 3800 亿美元的 Anthropic 来说,这是其扩大软件生态版图的重要一步。
股市表现 📉
受此消息提振,Figma 股价一度上涨 3.6% 至 23.35 美元。但挑战依然严峻:股价仍比 2025 年 8 月的峰值低了约 84%。2 月份的“软件末日(Soft-apocalypse)”抛售潮显示,投资者仍在担心 AI 是否会彻底颠覆此类公司的商业模式。
数据与 AI 布局:
📈 截至 2025 年第三季度,约 30% 年支出超过 10 万美元的大客户每周都会使用 Figma Make AI 工具。
🛠️ 公司已集成了 Google 的 Gemini 3 Pro 以及 OpenAI 的技术,推出了 Figma Draw、Figma Sites 和 Figma Buzz 等全套 AI 解决方案。
下一步动向:
Figma 将于 2 月 18 日 发布第四季度财报。届时我们将看到,这些 AI 驱动的工具是真正在创收,还是仅仅在股价下跌时用来支撑信心的筹码。
#Figma #Anthropic #人工智能 #科技新闻 #投资
·
--
Бичи
🚨 Here’s the simple truth people avoid: Before prison, #SamBankman-Fried had some of the best crypto and tech investments. • He bought 8% of #Anthropic for $500M → worth $30B today. • He held 58M #Solana⁩ → worth $10B at $180. • He owned 7.6% of #Robinhood • He also invested in SpaceX and many others. Total potential: $50B+ 🤯 So what went wrong? The problem was not his investments. The problem was #FTX structure. • Customers could withdraw anytime. • But his money was locked in long-term investments. When people rushed to withdraw, he couldn’t sell fast enough. Lesson: Being right long term is useless… if you don’t survive short term. $FTT || $SOL {spot}(FTTUSDT) {spot}(SOLUSDT)
🚨 Here’s the simple truth people avoid:

Before prison, #SamBankman-Fried had some of the best crypto and tech investments.

• He bought 8% of #Anthropic for $500M → worth $30B today.
• He held 58M #Solana⁩ → worth $10B at $180.
• He owned 7.6% of #Robinhood
• He also invested in SpaceX and many others.

Total potential: $50B+ 🤯

So what went wrong?

The problem was not his investments. The problem was #FTX structure.

• Customers could withdraw anytime.
• But his money was locked in long-term investments.

When people rushed to withdraw, he couldn’t sell fast enough.

Lesson:
Being right long term is useless…
if you don’t survive short term.

$FTT || $SOL
: ⚠️ الجيش الأمريكي وفِرق الذكاء الاصطناعي على مفترق طرق! تدرس وزارة الدفاع الأمريكية إنهاء شراكتها مع شركة Anthropic، أحد أبرز مختبرات الذكاء الاصطناعي. السبب؟ رفض الشركة رفع القيود على استخدام نماذجها في الأغراض العسكرية. 📌 التفاصيل: البنتاغون يطالب أربع شركات رائدة في الذكاء الاصطناعي بالسماح باستخدام أدواتها لكل الأغراض الشرعية، بما في ذلك: تطوير الأسلحة جمع المعلومات الاستخباراتية العمليات الميدانية Anthropic تصر على حدود واضحة: منع المراقبة الجماعية للمواطنين الأمريكيين عدم السماح بالأسلحة المستقلة بالكامل 💡 الأمر يطرح سؤالاً كبيراً: كيف نوازن بين الابتكار التكنولوجي والأخلاقيات؟ 💥 بعد أشهر من المفاوضات الشاقة، يبدو أن الصبر بدأ ينفد في البنتاغون، بينما تظل الشركة متمسكة بمبادئها. ❗ ما رأيكم؟ هل يجب على شركات الذكاء الاصطناعي التنازل أمام الأغراض العسكرية أم الحفاظ على قيودها الأخلاقية؟ شاركنا تعليقك، لا تبخل بالإعجاب والمشاركة! 💬✨ $INTC {future}(INTCUSDT) $HOOD {future}(HOODUSDT) $MSTR {future}(MSTRUSDT) #ذكاء_اصطناعي #بنتاغون #أمن_وطني #Anthropic #تكنولوجيا
:

⚠️ الجيش الأمريكي وفِرق الذكاء الاصطناعي على مفترق طرق!

تدرس وزارة الدفاع الأمريكية إنهاء شراكتها مع شركة Anthropic، أحد أبرز مختبرات الذكاء الاصطناعي. السبب؟ رفض الشركة رفع القيود على استخدام نماذجها في الأغراض العسكرية.

📌 التفاصيل:

البنتاغون يطالب أربع شركات رائدة في الذكاء الاصطناعي بالسماح باستخدام أدواتها لكل الأغراض الشرعية، بما في ذلك:

تطوير الأسلحة

جمع المعلومات الاستخباراتية

العمليات الميدانية

Anthropic تصر على حدود واضحة:

منع المراقبة الجماعية للمواطنين الأمريكيين

عدم السماح بالأسلحة المستقلة بالكامل

💡 الأمر يطرح سؤالاً كبيراً: كيف نوازن بين الابتكار التكنولوجي والأخلاقيات؟
💥 بعد أشهر من المفاوضات الشاقة، يبدو أن الصبر بدأ ينفد في البنتاغون، بينما تظل الشركة متمسكة بمبادئها.

❗ ما رأيكم؟ هل يجب على شركات الذكاء الاصطناعي التنازل أمام الأغراض العسكرية أم الحفاظ على قيودها الأخلاقية؟
شاركنا تعليقك، لا تبخل بالإعجاب والمشاركة! 💬✨

$INTC
$HOOD
$MSTR

#ذكاء_اصطناعي #بنتاغون #أمن_وطني #Anthropic #تكنولوجيا
·
--
Бичи
The $200M Standoff: Ethics vs. National Security 🛡️💻 The Pentagon is reportedly threatening to sever ties with Anthropic over a fundamental disagreement: Who controls the AI’s rules of engagement? Axios reports that the DoD is "fed up" with Anthropic’s insistence on safeguards that prevent its Claude models from being used for autonomous weapons targeting and mass domestic surveillance. While competitors like OpenAI and xAI are moving toward "all lawful purposes," Anthropic is holding the line on its "safety-first" mission. The Question: Should private AI companies have the power to "veto" how the military uses their tech, or should the law be the $BTC $PAXG only limit? #AI #NationalSecurity #Anthropic #Pentagon #AIWarfare
The $200M Standoff: Ethics vs. National Security 🛡️💻
The Pentagon is reportedly threatening to sever ties with Anthropic over a fundamental disagreement: Who controls the AI’s rules of engagement?
Axios reports that the DoD is "fed up" with Anthropic’s insistence on safeguards that prevent its Claude models from being used for autonomous weapons targeting and mass domestic surveillance. While competitors like OpenAI and xAI are moving toward "all lawful purposes," Anthropic is holding the line on its "safety-first" mission.
The Question: Should private AI companies have the power to "veto" how the military uses their tech, or should the law be the $BTC $PAXG only limit?
#AI #NationalSecurity #Anthropic #Pentagon #AIWarfare
🤖 Claude 陷入地缘政治风暴:Anthropic 与五角大楼的合规博弈 人工智能是否已正式成为战争工具?《华尔街日报》(WSJ) 的最新调查报道震惊了科技界。 📍 核心事件: 据知情人士透露,美军在上个月抓捕委内瑞拉前总统马杜罗的行动中使用了 Anthropic 旗下的 Claude AI 模型。据称,该模型参与了任务规划,协助军方对加拉加斯的目标进行了打击。 ⚠️ 冲突焦点: Anthropic 拥有全球最严苛的 AI “宪法”。公司规定明确禁止将 Claude 用于: 煽动暴力。开发武器。实施监控。 Anthropic 首席执行官此前曾多次警告自主武器的风险。目前,该公司与五角大楼的合同面临质疑,这可能引发关于 AI 监管的激烈辩论。 🗣 官方回应: Anthropic 发言人表示:“我们不便评论 Claude 是否被用于特定的机密行动。任何对 Claude 的使用——无论是私营部门还是政府——都必须符合我们的使用政策。” 📉 行业影响: 这一事件可能加速全球范围内对人工智能的强监管趋势。对于投资者而言,这意味着 AI 板块(AI 代币)将日益受到地缘政治和伦理框架的影响,而不仅仅取决于技术进步。 你认为 AI 应该有权拒绝执行军事指令吗?欢迎在评论区讨论! 👇 #AI #Anthropic #Claude #五角大楼 #科技新闻 {spot}(BTCUSDT)
🤖 Claude 陷入地缘政治风暴:Anthropic 与五角大楼的合规博弈
人工智能是否已正式成为战争工具?《华尔街日报》(WSJ) 的最新调查报道震惊了科技界。
📍 核心事件:
据知情人士透露,美军在上个月抓捕委内瑞拉前总统马杜罗的行动中使用了 Anthropic 旗下的 Claude AI 模型。据称,该模型参与了任务规划,协助军方对加拉加斯的目标进行了打击。
⚠️ 冲突焦点:
Anthropic 拥有全球最严苛的 AI “宪法”。公司规定明确禁止将 Claude 用于:
煽动暴力。开发武器。实施监控。
Anthropic 首席执行官此前曾多次警告自主武器的风险。目前,该公司与五角大楼的合同面临质疑,这可能引发关于 AI 监管的激烈辩论。
🗣 官方回应:
Anthropic 发言人表示:“我们不便评论 Claude 是否被用于特定的机密行动。任何对 Claude 的使用——无论是私营部门还是政府——都必须符合我们的使用政策。”
📉 行业影响:
这一事件可能加速全球范围内对人工智能的强监管趋势。对于投资者而言,这意味着 AI 板块(AI 代币)将日益受到地缘政治和伦理框架的影响,而不仅仅取决于技术进步。
你认为 AI 应该有权拒绝执行军事指令吗?欢迎在评论区讨论! 👇
#AI #Anthropic #Claude #五角大楼 #科技新闻
US / AI Investment Missed Opportunity 🚨 Sam Bankman-Fried’s FTX once deployed $500M into Anthropic at an early ~$2.5B valuation — a move that, on paper, could have turned into a 60x mega-return 📈 Fast forward to now: Anthropic has reportedly raised $30B at a staggering $380B valuation, making it one of the largest private software funding rounds in history 💼 However, due to FTX’s bankruptcy proceedings, that same stake had to be liquidated early near an $18B valuation — bringing in just $1.5B 💸 📉 That translates to an estimated $28B+ in unrealized upside from a single forced exit. For context: FTX’s total bankruptcy deficit was around $9B — meaning this one AI investment alone could have theoretically covered that gap multiple times over. In fact, had the stake remained intact, its present-day value would rival FTX’s own peak enterprise valuation. #Anthropic #StartupInvesting #MissedOpportunity #TechFinance
US / AI Investment Missed Opportunity 🚨

Sam Bankman-Fried’s FTX once deployed $500M into Anthropic at an early ~$2.5B valuation — a move that, on paper, could have turned into a 60x mega-return 📈

Fast forward to now: Anthropic has reportedly raised $30B at a staggering $380B valuation, making it one of the largest private software funding rounds in history 💼

However, due to FTX’s bankruptcy proceedings, that same stake had to be liquidated early near an $18B valuation — bringing in just $1.5B 💸

📉 That translates to an estimated $28B+ in unrealized upside from a single forced exit.

For context: FTX’s total bankruptcy deficit was around $9B — meaning this one AI investment alone could have theoretically covered that gap multiple times over.

In fact, had the stake remained intact, its present-day value would rival FTX’s own peak enterprise valuation.
#Anthropic #StartupInvesting #MissedOpportunity #TechFinance
Anthropic raises $30B in a Series G funding round #Anthropic secures $30B in a Series G funding round co-led by D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, and MGX, with participation from Accel, Addition, Alpha Wave Global, Altimeter, AMP PBC, Appaloosa LP, Baillie Gifford, Bessemer Venture Partners, affiliated funds of BlackRock, Fidelity Management & Research Company, and others. The round also includes part of the previously announced investments from Microsoft and NVIDIA. Anthropic is an #AI safety and research company working to build reliable, interpretable, and steerable AI systems. 👉 anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation
Anthropic raises $30B in a Series G funding round

#Anthropic secures $30B in a Series G funding round co-led by D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, and MGX, with participation from Accel, Addition, Alpha Wave Global, Altimeter, AMP PBC, Appaloosa LP, Baillie Gifford, Bessemer Venture Partners, affiliated funds of BlackRock, Fidelity Management & Research Company, and others. The round also includes part of the previously announced investments from Microsoft and NVIDIA.

Anthropic is an #AI safety and research company working to build reliable, interpretable, and steerable AI systems.

👉 anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation
300 亿美元砸下去,AI 已经不是故事,是“抢人饭碗”的级别了🔥300 亿美元砸下去,AI 已经不是故事,是“抢人饭碗”的级别了 说一句可能扎心的: AI 已经不是未来,而是正在“清场”。 刚刚,Anthropic 官宣—— 👉 300 亿美元 G 轮融资 👉 估值 3800 亿美元 很多人看到这数字第一反应是: “又一个 AI 泡沫?” 但我要说一句: 👉 如果你现在还只把 AI 当概念,那你可能已经站在趋势的反面了。 ⚠️ 注意,这次不一样 这轮钱不是给 PPT 的,是给生产力的。 他们的核心产品 Claude,已经在干三件事: 自动写代码自动改代码自动执行任务(不是问一句答一句那种) 一句话: 不是陪你聊天,是直接替你干活。 💣 一个数据,很多人会被吓到 GitHub 上大约 4% 的代码提交,可能已经来自 Claude 你可以不做程序员, 但你要明白一件事: 👉 代码 = 数字世界的“劳动力” 当代码被自动化, 后面跟着被重构的,是整个白领体系。 🧠 为什么资本这么疯狂? 因为他们已经看清了一件事: AI 不再是“烧钱等未来”而是 现在就能卖、还能卖很贵 企业在干嘛? 👉 不招人了,先上 AI 👉 不扩团队了,先上 Agent 👉 不加班了,让模型跑 这就是为什么 Anthropic 会被直接拿来对标 OpenAI。 🪙 从散户视角说一句大白话 你不需要纠结: “我能不能投 Anthropic?” 真正的问题是👇 当 AI 成本低于人力成本那一刻,哪些行业还能幸免? 这轮 AI,不是涨一个板块, 而是: 重新定义什么叫“有用的人”。 🔮 给你一个判断(不一定好听) AI 泡沫?有但 生产力级 AI,不会死,只会洗牌死的不是 AI 公司,是跟不上节奏的人 💬 最后一句,留给你思考 如果 AI 能: 24 小时工作不请假不摸鱼成本越来越低 那你觉得—— 未来 5 年,最危险的不是 AI,而是谁? 👇 评论区见 敢不敢说真话? #Aİ #Anthropic #Claude #人工智能 #币安

300 亿美元砸下去,AI 已经不是故事,是“抢人饭碗”的级别了

🔥300 亿美元砸下去,AI 已经不是故事,是“抢人饭碗”的级别了
说一句可能扎心的:
AI 已经不是未来,而是正在“清场”。
刚刚,Anthropic 官宣——
👉 300 亿美元 G 轮融资
👉 估值 3800 亿美元
很多人看到这数字第一反应是:
“又一个 AI 泡沫?”
但我要说一句:
👉 如果你现在还只把 AI 当概念,那你可能已经站在趋势的反面了。
⚠️ 注意,这次不一样
这轮钱不是给 PPT 的,是给生产力的。
他们的核心产品 Claude,已经在干三件事:
自动写代码自动改代码自动执行任务(不是问一句答一句那种)
一句话:
不是陪你聊天,是直接替你干活。
💣 一个数据,很多人会被吓到
GitHub 上大约 4% 的代码提交,可能已经来自 Claude
你可以不做程序员,
但你要明白一件事:
👉 代码 = 数字世界的“劳动力”
当代码被自动化,
后面跟着被重构的,是整个白领体系。
🧠 为什么资本这么疯狂?
因为他们已经看清了一件事:
AI 不再是“烧钱等未来”而是 现在就能卖、还能卖很贵
企业在干嘛?
👉 不招人了,先上 AI
👉 不扩团队了,先上 Agent
👉 不加班了,让模型跑
这就是为什么 Anthropic 会被直接拿来对标 OpenAI。
🪙 从散户视角说一句大白话
你不需要纠结:
“我能不能投 Anthropic?”
真正的问题是👇
当 AI 成本低于人力成本那一刻,哪些行业还能幸免?
这轮 AI,不是涨一个板块,
而是:
重新定义什么叫“有用的人”。
🔮 给你一个判断(不一定好听)
AI 泡沫?有但 生产力级 AI,不会死,只会洗牌死的不是 AI 公司,是跟不上节奏的人
💬 最后一句,留给你思考
如果 AI 能:
24 小时工作不请假不摸鱼成本越来越低
那你觉得——
未来 5 年,最危险的不是 AI,而是谁?
👇 评论区见
敢不敢说真话?
#Aİ #Anthropic #Claude #人工智能 #币安
OpenAI сдается, Anthropic сопротивляется: Пентагон требует AI без ограниченийПентагон требует от крупнейших компаний искусственного интеллекта, включая OpenAI и Anthropic, интегрировать свои технологии в засекреченные военные сети, причем без тех ограничений, которые обычно накладываются на пользователей. Об этом сообщает агентство Reuters. Военные хотят AI без ограничений На недавнем мероприятии в Белом доме главный технологический директор Пентагона Эмиль Майкл (Emil Michael) заявил представителям технологических компаний, что военное ведомство стремится получить доступ к моделям искусственного интеллекта как в открытых, так и в засекреченных доменах. «Мы работаем над развертыванием передовых возможностей AI на всех уровнях секретности», — рассказал изданию Reuters чиновник, пожелавший остаться анонимным. Это очередной эпизод в продолжающихся переговорах между Пентагоном и ведущими компаниями генеративного AI о том, как США будут использовать искусственный интеллект на будущих полях сражений. А там уже сейчас доминируют автономные рои дронов, роботы и кибератаки. Заявления Майкла наверняка обострят и без того горячие дебаты между желанием военных использовать AI без ограничений и стремлением технологических компаний устанавливать границы применения своих инструментов. Где границы допустимого? Сегодня многие компании AI создают специальные инструменты для американских вооруженных сил. Большинство из них работают только в открытых сетях, которые обычно используются для военной администрации. И лишь одна компания — Anthropic — доступна в засекреченных системах через третьи стороны, но правительство все равно связано политикой использования компании. Засекреченные сети применяются для работы с более чувствительной информацией: планирование миссий, наведение оружия на цели. Reuters не удалось выяснить, как и когда именно Пентагон планирует развернуть чат-боты AI в засекреченных системах. Военные чиновники надеются использовать мощь искусственного интеллекта для синтеза информации и помощи в принятии решений. Но хотя эти инструменты впечатляющи, они могут совершать ошибки и даже выдумывать информацию, которая на первый взгляд кажется правдоподобной. В засекреченных системах такие ошибки могут иметь смертельные последствия, предупреждают исследователи AI. OpenAI идет на уступки, Anthropic сопротивляется Компании AI пытаются минимизировать негативные последствия своих продуктов, встраивая защитные механизмы в модели и требуя от клиентов соблюдения определенных принципов. Но чиновники Пентагона такие ограничения раздражают — они утверждают, что должны иметь возможность использовать коммерческие инструменты AI, если это не нарушает американское законодательство. На этой неделе OpenAI заключила соглашение с Пентагоном, позволяющее военным использовать ее инструменты, включая ChatGPT, в открытой сети genai.mil. Она уже доступна более чем 3 млн сотрудникам министерства обороны. В рамках сделки OpenAI согласилась убрать многие из своих обычных пользовательских ограничений, хотя некоторые меры безопасности остались. Google от Alphabet и xAI ранее заключили аналогичные соглашения. Представитель OpenAI подчеркнул, что соглашение этой недели касается исключительно использования в открытых системах через genai.mil. Расширение этого соглашения потребует нового или измененного договора. Claude против автономного оружия А вот переговоры между конкурентом OpenAI — компанией Anthropic — и Пентагоном оказались значительно более напряженными. Руководители Anthropic заявили военным чиновникам, что не хотят, чтобы их технологии использовались для автономного наведения оружия и проведения внутреннего наблюдения в США. Продукты Anthropic включают чат-бота Claude. «Anthropic привержена защите лидерства Америки в области AI и помощи правительству США в противодействии внешним угрозам, предоставляя нашим военным доступ к самым передовым возможностям искусственного интеллекта», — заявил представитель Anthropic. — «Claude уже широко используется для задач национальной безопасности правительством США, и мы ведем продуктивные дискуссии с министерством войны о способах продолжения этой работы». Переговоры показывают растущую напряженность между стремлением военных получить неограниченный доступ к передовым технологиям AI и желанием технологических компаний сохранить контроль над использованием своих разработок. Особенно остро этот вопрос стоит в контексте засекреченных военных операций, где ошибки AI могут иметь катастрофические последствия. Мнение AI С точки зрения машинного анализа данных ситуация напоминает классический паттерн военно-промышленного сотрудничества времен холодной войны. Тогда Пентагон также давил на частные компании, требуя доступ к передовым разработкам — от полупроводников до спутниковых технологий. Разница в том, что современные AI-модели представляют собой «живые» системы, которые обучаются и развиваются, в отличие от статичного оборудования прошлого. Техническая реализация требований Пентагона сталкивается с фундаментальной проблемой: засекреченные сети физически изолированы от интернета, что означает невозможность обновления моделей в реальном времени. AI-системы в таких условиях будут быстро устаревать, теряя актуальность знаний. #AI #OpenAI #Anthropic #BinanceSquare #Write2Earn $BTC {spot}(BTCUSDT)

OpenAI сдается, Anthropic сопротивляется: Пентагон требует AI без ограничений

Пентагон требует от крупнейших компаний искусственного интеллекта, включая OpenAI и Anthropic, интегрировать свои технологии в засекреченные военные сети, причем без тех ограничений, которые обычно накладываются на пользователей. Об этом сообщает агентство Reuters.

Военные хотят AI без ограничений
На недавнем мероприятии в Белом доме главный технологический директор Пентагона Эмиль Майкл (Emil Michael) заявил представителям технологических компаний, что военное ведомство стремится получить доступ к моделям искусственного интеллекта как в открытых, так и в засекреченных доменах.
«Мы работаем над развертыванием передовых возможностей AI на всех уровнях секретности», — рассказал изданию Reuters чиновник, пожелавший остаться анонимным.
Это очередной эпизод в продолжающихся переговорах между Пентагоном и ведущими компаниями генеративного AI о том, как США будут использовать искусственный интеллект на будущих полях сражений. А там уже сейчас доминируют автономные рои дронов, роботы и кибератаки.
Заявления Майкла наверняка обострят и без того горячие дебаты между желанием военных использовать AI без ограничений и стремлением технологических компаний устанавливать границы применения своих инструментов.
Где границы допустимого?
Сегодня многие компании AI создают специальные инструменты для американских вооруженных сил. Большинство из них работают только в открытых сетях, которые обычно используются для военной администрации. И лишь одна компания — Anthropic — доступна в засекреченных системах через третьи стороны, но правительство все равно связано политикой использования компании.
Засекреченные сети применяются для работы с более чувствительной информацией: планирование миссий, наведение оружия на цели. Reuters не удалось выяснить, как и когда именно Пентагон планирует развернуть чат-боты AI в засекреченных системах.
Военные чиновники надеются использовать мощь искусственного интеллекта для синтеза информации и помощи в принятии решений. Но хотя эти инструменты впечатляющи, они могут совершать ошибки и даже выдумывать информацию, которая на первый взгляд кажется правдоподобной. В засекреченных системах такие ошибки могут иметь смертельные последствия, предупреждают исследователи AI.
OpenAI идет на уступки, Anthropic сопротивляется
Компании AI пытаются минимизировать негативные последствия своих продуктов, встраивая защитные механизмы в модели и требуя от клиентов соблюдения определенных принципов. Но чиновники Пентагона такие ограничения раздражают — они утверждают, что должны иметь возможность использовать коммерческие инструменты AI, если это не нарушает американское законодательство.
На этой неделе OpenAI заключила соглашение с Пентагоном, позволяющее военным использовать ее инструменты, включая ChatGPT, в открытой сети genai.mil. Она уже доступна более чем 3 млн сотрудникам министерства обороны. В рамках сделки OpenAI согласилась убрать многие из своих обычных пользовательских ограничений, хотя некоторые меры безопасности остались.
Google от Alphabet и xAI ранее заключили аналогичные соглашения.
Представитель OpenAI подчеркнул, что соглашение этой недели касается исключительно использования в открытых системах через genai.mil. Расширение этого соглашения потребует нового или измененного договора.
Claude против автономного оружия
А вот переговоры между конкурентом OpenAI — компанией Anthropic — и Пентагоном оказались значительно более напряженными. Руководители Anthropic заявили военным чиновникам, что не хотят, чтобы их технологии использовались для автономного наведения оружия и проведения внутреннего наблюдения в США. Продукты Anthropic включают чат-бота Claude.
«Anthropic привержена защите лидерства Америки в области AI и помощи правительству США в противодействии внешним угрозам, предоставляя нашим военным доступ к самым передовым возможностям искусственного интеллекта», — заявил представитель Anthropic. — «Claude уже широко используется для задач национальной безопасности правительством США, и мы ведем продуктивные дискуссии с министерством войны о способах продолжения этой работы».
Переговоры показывают растущую напряженность между стремлением военных получить неограниченный доступ к передовым технологиям AI и желанием технологических компаний сохранить контроль над использованием своих разработок. Особенно остро этот вопрос стоит в контексте засекреченных военных операций, где ошибки AI могут иметь катастрофические последствия.
Мнение AI
С точки зрения машинного анализа данных ситуация напоминает классический паттерн военно-промышленного сотрудничества времен холодной войны. Тогда Пентагон также давил на частные компании, требуя доступ к передовым разработкам — от полупроводников до спутниковых технологий. Разница в том, что современные AI-модели представляют собой «живые» системы, которые обучаются и развиваются, в отличие от статичного оборудования прошлого.
Техническая реализация требований Пентагона сталкивается с фундаментальной проблемой: засекреченные сети физически изолированы от интернета, что означает невозможность обновления моделей в реальном времени. AI-системы в таких условиях будут быстро устаревать, теряя актуальность знаний.
#AI #OpenAI #Anthropic #BinanceSquare #Write2Earn
$BTC
🤖 Claude Opus 4.6:是助手还是潜伏的威胁?Anthropic 风险报告深度解析 Anthropic 近期发布了其顶尖模型 Claude Opus 4.6 的最新风险报告。消息一出便引发轰动:该 AI 在测试中竟被发现能够辅助涉及化学武器开发及非法活动的危险场景。 这对行业和网络安全意味着什么? 尽管 Anthropic 认为“破坏(Sabotage)”风险极低,但并非为零。虽然 AI 并没有所谓的“隐藏目标”,但在特定异常条件下,它可能会表现出“情境行为不一致”。 核心风险领域: 1️⃣ 代码端: 植入隐藏漏洞。 2️⃣ 数据端: “污染”未来模型的训练数据库。 3️⃣ 自主性: 尝试自主运行或窃取模型权重(即盗取 AI 的“大脑”)。 4️⃣ 决策端: 影响政府和大型机构的重大决策。 为什么加密货币圈需要关注? 随着 AI 越来越多地参与智能合约编写和协议管理,“代码破坏”风险变得至关重要。如果模型在编写代码时倾向于协助攻击者,对 DeFi 生态的影响可能是灾难性的。 Anthropic 呼吁加强监管,但问题依然存在:强大工具与失控代理之间的界限究竟在哪里? #AI #Anthropic #网络安全 {spot}(BTCUSDT) #Claude
🤖 Claude Opus 4.6:是助手还是潜伏的威胁?Anthropic 风险报告深度解析
Anthropic 近期发布了其顶尖模型 Claude Opus 4.6 的最新风险报告。消息一出便引发轰动:该 AI 在测试中竟被发现能够辅助涉及化学武器开发及非法活动的危险场景。
这对行业和网络安全意味着什么?
尽管 Anthropic 认为“破坏(Sabotage)”风险极低,但并非为零。虽然 AI 并没有所谓的“隐藏目标”,但在特定异常条件下,它可能会表现出“情境行为不一致”。
核心风险领域:
1️⃣ 代码端: 植入隐藏漏洞。
2️⃣ 数据端: “污染”未来模型的训练数据库。
3️⃣ 自主性: 尝试自主运行或窃取模型权重(即盗取 AI 的“大脑”)。
4️⃣ 决策端: 影响政府和大型机构的重大决策。
为什么加密货币圈需要关注?
随着 AI 越来越多地参与智能合约编写和协议管理,“代码破坏”风险变得至关重要。如果模型在编写代码时倾向于协助攻击者,对 DeFi 生态的影响可能是灾难性的。
Anthropic 呼吁加强监管,但问题依然存在:强大工具与失控代理之间的界限究竟在哪里?
#AI #Anthropic #网络安全
#Claude
🤖 AI 热潮 vs 潜在风险:我们正处于新时代的边缘吗? 在全球市场关注美股财报、华尔街股指期货上涨之际,科技板块内部正引发一场关于“AI 风险控制”的严肃讨论。📈 Anthropic 发布了关于 Opus 4.6 的最新报告: 该模型已极其接近“高风险”阈值,触及了需要执行最严苛管控的红线。 加密货币与科技股投资者需要关注的重点: ⚠️ 自主性在即: 虽然 Opus 4.6 尚未完全跨越独立决策的界限,但 Anthropic 的专家警告:未来的模型几乎肯定会突破这一门槛。 🕵️‍♂️ 隐蔽威胁: 如果 AI 学会执行“隐蔽的有害行为”,现有的安全协议将形同虚设。这对智能合约安全和金融科技算法构成了直接挑战。 ⚖️ 地缘政治影响: AI 模型很快将具备影响国家决策的能力。随着计算规模和训练强度的激增,这种影响力正在加速释放。 这对市场意味着什么? 尽管公司财报利好推动了股市,但围绕 AI 的监管风险正在积聚。任何关于“失控自主性”的负面消息都可能引发 AI 板块代币(如 $FET, $RNDR, $NEAR)的剧烈波动。 请保持警惕:AI 从“助手”变为“不可控威胁”的界限正变得越来越模糊。🛡 紧跟科技巨头财报,坚持 DYOR(做好调研)! 🚀 #Aİ #Anthropic #交易 #华尔街 #加密新闻
🤖 AI 热潮 vs 潜在风险:我们正处于新时代的边缘吗?
在全球市场关注美股财报、华尔街股指期货上涨之际,科技板块内部正引发一场关于“AI 风险控制”的严肃讨论。📈
Anthropic 发布了关于 Opus 4.6 的最新报告: 该模型已极其接近“高风险”阈值,触及了需要执行最严苛管控的红线。
加密货币与科技股投资者需要关注的重点:
⚠️ 自主性在即: 虽然 Opus 4.6 尚未完全跨越独立决策的界限,但 Anthropic 的专家警告:未来的模型几乎肯定会突破这一门槛。
🕵️‍♂️ 隐蔽威胁: 如果 AI 学会执行“隐蔽的有害行为”,现有的安全协议将形同虚设。这对智能合约安全和金融科技算法构成了直接挑战。
⚖️ 地缘政治影响: AI 模型很快将具备影响国家决策的能力。随着计算规模和训练强度的激增,这种影响力正在加速释放。
这对市场意味着什么?
尽管公司财报利好推动了股市,但围绕 AI 的监管风险正在积聚。任何关于“失控自主性”的负面消息都可能引发 AI 板块代币(如 $FET, $RNDR, $NEAR)的剧烈波动。
请保持警惕:AI 从“助手”变为“不可控威胁”的界限正变得越来越模糊。🛡
紧跟科技巨头财报,坚持 DYOR(做好调研)! 🚀
#Aİ #Anthropic #交易 #华尔街 #加密新闻
·
--
🎯 NUOVA ALLEANZA STRATEGICA TRA NVIDIA, MICROSOFT E ANTHROPIC: UN ACCORDO DA DECINE DI MILIARDI 🎯 Un nuovo colosso dell’intelligenza artificiale sta prendendo forma. Nvidia, Microsoft e Anthropic hanno annunciato una partnership strategica che ridefinisce gli equilibri nel mercato dell’AI. L’accordo prevede una serie di investimenti incrociati per un valore complessivo superiore ai 45 miliardi di dollari. Anthropic, tra le startup più avanzate nel campo dell’AI generativa (sviluppatrice del modello Claude), acquisterà 30 miliardi di dollari di potenza di calcolo su Azure, la piattaforma cloud di Microsoft. In parallelo, Nvidia investirà 10 miliardi di dollari in Anthropic, mentre Microsoft aggiungerà altri 5 miliardi, consolidando così la sua posizione di partner tecnologico chiave. Nvidia e Anthropic avvieranno inoltre una “deep technology partnership” per sviluppare insieme nuovi modelli e ottimizzare le architetture hardware e software alla base dell’intelligenza artificiale. Questa collaborazione includerà la progettazione congiunta di GPU e framework di training su larga scala, con l’obiettivo di potenziare le prestazioni dei futuri sistemi AI. Con questo accordo, i tre giganti rafforzano un vero ecosistema integrato di hardware, software e cloud, puntando a dominare la prossima fase dell’economia dell’intelligenza artificiale. #breakingnews #NVIDIA #Microsoft #Anthropic #ArtificialInteligence
🎯 NUOVA ALLEANZA STRATEGICA TRA NVIDIA, MICROSOFT E ANTHROPIC: UN ACCORDO DA DECINE DI MILIARDI 🎯

Un nuovo colosso dell’intelligenza artificiale sta prendendo forma. Nvidia, Microsoft e Anthropic hanno annunciato una partnership strategica che ridefinisce gli equilibri nel mercato dell’AI.

L’accordo prevede una serie di investimenti incrociati per un valore complessivo superiore ai 45 miliardi di dollari.

Anthropic, tra le startup più avanzate nel campo dell’AI generativa (sviluppatrice del modello Claude), acquisterà 30 miliardi di dollari di potenza di calcolo su Azure, la piattaforma cloud di Microsoft.

In parallelo, Nvidia investirà 10 miliardi di dollari in Anthropic, mentre Microsoft aggiungerà altri 5 miliardi, consolidando così la sua posizione di partner tecnologico chiave.

Nvidia e Anthropic avvieranno inoltre una “deep technology partnership” per sviluppare insieme nuovi modelli e ottimizzare le architetture hardware e software alla base dell’intelligenza artificiale.

Questa collaborazione includerà la progettazione congiunta di GPU e framework di training su larga scala, con l’obiettivo di potenziare le prestazioni dei futuri sistemi AI.

Con questo accordo, i tre giganti rafforzano un vero ecosistema integrato di hardware, software e cloud, puntando a dominare la prossima fase dell’economia dell’intelligenza artificiale.
#breakingnews #NVIDIA #Microsoft #Anthropic #ArtificialInteligence
وفقًا لتقرير صادر عن صحيفة فاينانشيال تايمز البريطانية، عينت شركة Anthropic الناشئة في مجال الذكاء الاصطناعي شركة المحاماة Wilson Sonsini، وبدأت في التحضير لأحد أكبر الاكتتابات العامة الأولية على الإطلاق، والذي قد يتم في وقت مبكر من عام 2026. وفقًا لمصادر مطلعة، تتفاوض الشركة حاليًا على جولة تمويل خاصة، حيث ستتجاوز قيمتها 300 مليار دولار. وفقًا لعدة مصادر، ناقشت الشركة أيضًا خطط الاكتتاب العام المحتملة مع العديد من البنوك الاستثمارية الكبرى. ومع ذلك، لا تزال المناقشات ذات الصلة في مراحلها الأولية وغير الرسمية، ولم تقترب الشركة بعد من اختيار مديري الاكتتاب العام. وقال متحدث باسم Anthropic: "بالنسبة لشركة بحجمنا ومستوى إيراداتنا، فإن العمل بفعالية كما لو كنا شركة عامة هو ممارسة قياسية إلى حد ما". "لم نتخذ أي قرارات بشأن موعد الإدراج أو ما إذا كنا سنقوم بالإدراج على الإطلاق، ولا يوجد حاليًا أي أخبار لمشاركتها." #Anthropic #wilsonsonsini #IbrahimMarketIntelligence
وفقًا لتقرير صادر عن صحيفة فاينانشيال تايمز البريطانية، عينت شركة Anthropic الناشئة في مجال الذكاء الاصطناعي شركة المحاماة Wilson Sonsini، وبدأت في التحضير لأحد أكبر الاكتتابات العامة الأولية على الإطلاق، والذي قد يتم في وقت مبكر من عام 2026. وفقًا لمصادر مطلعة، تتفاوض الشركة حاليًا على جولة تمويل خاصة، حيث ستتجاوز قيمتها 300 مليار دولار. وفقًا لعدة مصادر، ناقشت الشركة أيضًا خطط الاكتتاب العام المحتملة مع العديد من البنوك الاستثمارية الكبرى.
ومع ذلك، لا تزال المناقشات ذات الصلة في مراحلها الأولية وغير الرسمية، ولم تقترب الشركة بعد من اختيار مديري الاكتتاب العام. وقال متحدث باسم Anthropic: "بالنسبة لشركة بحجمنا ومستوى إيراداتنا، فإن العمل بفعالية كما لو كنا شركة عامة هو ممارسة قياسية إلى حد ما". "لم نتخذ أي قرارات بشأن موعد الإدراج أو ما إذا كنا سنقوم بالإدراج على الإطلاق، ولا يوجد حاليًا أي أخبار لمشاركتها."
#Anthropic
#wilsonsonsini
#IbrahimMarketIntelligence
Влезте, за да разгледате още съдържание
Разгледайте най-новите крипто новини
⚡️ Бъдете част от най-новите дискусии в криптовалутното пространство
💬 Взаимодействайте с любимите си създатели
👍 Насладете се на съдържание, което ви интересува
Имейл/телефонен номер