(NEXT FUNDS)金融(除く銀行)上場投信(1632)時間別の2ch&Yahoo投稿数推移(48時間)
スポンサード リンク
- 全て表示
- 関連ブログ情報
- 【2ch】市況1/株式板(5ch)
- 【Yahoo】ファイナンス掲示板
- twitter呟き
- [1632](NEXT FUNDS)金融(除く銀行)上場投信 株式掲示板
関連ブログ情報 新着リスト
-
-
2025/12/14 PR
金融(1632)を今から買って大丈夫か?不安要素はいくつかあります…。
- 株式投資の世界で勝ち続けるためには、「銘柄の選定」と「銘柄の売買タイミング」が大事です。適当な銘柄選定では勝てませんし、売買タイミングを誤ってしまうと…
- https://ateru.co.jp/
-
【2ch】市況1板、株式板の反応(新着順)
スポンサード リンク
【急騰】今買えばいい株22273【オマーン国際空港】 より
519 :山師さん:2025/05/08(木)12:27:22 ID:01AbJ3LR.net
板別にレスを表示する
Yahoo掲示板(Y板)の反応(新着順)
スポンサード リンク
2025/12/13(土) 23:05:00投稿者:??????
FANGが何年後に、利下げの効果を折り込むと考えますか?
結論から言うと、FANGが「利下げの効果」を本格的に株価へ折り込み切るのは
2025/12/12(金) 13:49:00投稿者:??????
「今回のFRBの資産購入がドル/為替や株式市場にどんな影響を与えそうか」?
今回のFOMCの資産購入再開(短期債買い入れ=準備金管理オペ)が、ドル・株・債券・
リスク資産にどんな影響を与えるかを、わかりやすくまとめます。
結論から言うと、
“本格QEではないが、市場にとっては “緩和方向” に見えるため、株・AI関連・新興国通貨
にプラス、ドルはやや弱含みになりやすい”というインパクトです。
① ドル(USD)への影響
■ 基本シナリオ
ドルは中期的には弱くなりやすい。
理由:
・FRBが短期債買い入れ → 市場へのドル供給量が増える
・QT(資産縮小)が完全停止 → 金融引き締めが止まった
・市場は「次は利下げ」と読みやすい
→ つまり、「ドルの供給が増える」+「利下げ観測が強まる」で、ドル安方向。
ただし、
■ 例外(ドルが弱くならない可能性)
・世界景気の急減速(=安全資産としてドルが買われる)
・欧州・日本がさらに弱い金融政策を取る場合
② 米長期金利(10年債)への影響
金利は下方向へ動きやすい。
・FRBの資産買い入れ再開 → 流動性が増える
・QTの終了 → 国債の自然減少も止まる
・景気の過熱懸念が後退
= 市場は「金利低下」を織り込みやすい。
③ 株式市場(S&P500・NASDAQなど)
■ 上昇に寄与(特にグロース株・AI株)
理由:
・金利低下 → 成長株のバリュエーション上昇
・流動性供給 → リスク資産に資金が流れやすい
・QT終了 → 市場の不安要因が一つ消える
・“疑似QE”として捉えられやすい(心理効果が大きい)
特に
・AI・半導体
・メガテック(FANG+)
・フィジカルAI・データセンター関連
これらには強い追い風です。
④ 日本株(特にあなたのPF:1489・200A・316A)
■ 200A(日本半導体・AI製造装置)
・AI投資拡大 → HBM需要継続
・金利低下 → 市場のリスク許容度上昇
・ドル安 → 日本企業の米国向け設備投資拡大
■ 1489(TOPIX)
→ 緩やかな追い風
・円高方向でも、金利低下で設備投資・消費にはプラス
・世界リスクオンで資金が日本株にも流れやすい
■ 316A(日本株 グロース)
→ 強い追い風(特に金利低下に敏感)
⑥ よくある誤解の整理 ・・・・この説明は、面白い
市場の認識
FRBが短期債を買う → QEだ!
実際
FRBの公式説明は「準備金管理のための通常オペ」
影響
市場は“緩和の一歩”と解釈
市場の認識
QTが終わった → 緩和に転換?
実際
正確には「中立に戻しただけ」
影響
市場心理には強いプラス
市場は「実質的な緩和のスタート」と捉えるので、リスク資産は上がりやすい。
これから、株は益々あがると言う事だね
FANG+は、DCの巨額投資リスクが頭を抑える為、もたつくと思う
手堅く1489等のTOPIXの方が先行で買われやすい状況が続くと思う
逆に、それだから316A 223Aを今、買うのだが・・
2025/12/12(金) 13:28:00投稿者:??????
2025年12月FOMCでドルを印刷することが決まったのでしょうか?と質問してみた
簡潔に言うと、2025年12月のFOMCで「ドルを無制限に印刷する」「量的緩和(QE)を
本格再開する」という決定はされていません。しかし、ある意味でドル供給(中央銀行に
よる資産購入)は再び行われることになりました。その内容と意味を整理すると
次のとおりです。
2025/12/10(水) 14:52:00投稿者:??????
日本の半導体の本番は、此れから来るて事ですね
推論用のGPUの需要拡大により新たな生産ラインが必要になる
始まっても無いなのに、終わる訳もない
2025/12/10(水) 14:47:00投稿者:??????
世界中で作られているDCは学習用ですか?推論用のデータセンターだと学習用よりも
電力消費は少なくなるのですか?
いい質問。現在の世界中のデータセンター(DC)――特に最近建設・運用されているもの
は「学習用途向け」「推論用途向け」「従来のクラウド/ホスティング用途向け」が
混在していて、「今はどちらか一方だけ」ではありません。
2025/12/10(水) 14:39:00投稿者:??????
これから必要なGPUは学習用 よりも 推論用の需要が大きくなるのですか?
結論:はい。これからは “学習用 GPU 以上に、推論用 GPU(または推論専用チップ)の
需要が圧倒的に大きくなる” 時代に入ります。
AI市場全体の主役は Training(学習) → Inference(推論) へ完全にシフトします。
■ 1. 学習(Training)は「数は少ないが単価が超高い」
・GPT-4・Claude・Gemini 等の大型モデルは
数か月〜年に数回しか大規模学習を実施しない・・・・>これには驚いたww
・使用するGPUの量は巨大(H100/B100など)
→ でも“用途が限定的”
例:
OpenAI が数十万枚のH100を学習に使ったとしても
学習が終われば その分の需要は一時的。
■ 2. 推論(Inference)は「毎日・世界中で膨大に使われる」
推論回数はこれから 10倍〜100倍以上 になると見られています。
・すべてのアプリがAI化
・スマホAIアシスタント
・企業のAIチャット、AIエージェント
・ロボット・自動走行・工場AI
・コールセンター、広告最適化、レコメンドAI
→ 毎秒、何千万〜何億回という推論が行われる世界
■ 3. FANG が次々と「推論専用チップ」を開発し始めた理由
FANGは学習向けではなく “推論用ASIC/NPU” の開発を加速しています。
これはつまり…
✔ 今後の中心は推論
✔ GPUで推論を回すとコストと電力が高すぎる
✔ 専用チップのほうが10分の1のコストで動く
という明確な判断です。
■ 4. 推論需要は「学習の数十倍〜数百倍」になる
AI研究者たちの共通の見解:
● 学習需要
→ 大規模モデルの学習頻度は限られている
→ 増え方は緩やか
● 推論需要
→ AIアプリの利用者数に比例して爆発的に増える
→ 圧倒的に推論が主役
・1つのLLMを学習するのに1万枚のGPUが必要とする
・だが、そのLLMを世界で毎日使う推論には
何十万〜何百万枚分の推論能力が必要になる
■ 最終結論
★これから必要になるGPU/AIチップの需要は、圧倒的に “推論向け” が中心になる。
学習向けGPUも一定は必要だが、市場規模は推論のほうが遥かに巨大。
✔ AIの未来の主役は「学習」ではなく「推論」
✔ GPU市場の中心も「推論向け」へシフト
✔ NVIDIAも今後は“推論性能”が収益源の中心になる
成程な~・・200Aの株価上昇は、まだ始まってもいない
2025/12/10(水) 14:16:00投稿者:??????
AIロボに使うのGPU or CPU?
結論から言うと、AIロボット(産業ロボ、サービスロボ、AI搭載ロボット)の中核は
「GPUでもCPUでもなく “混合構成(CPU+GPU or CPU+NPU/ASIC)」が主流」です。
そして用途によって、GPUが主役になる場合と、CPU/NPUが主役になる場合があります。
■ 1. 産業ロボット(安川・ファナック・川重系)
→ 基本:CPU+組込みAI(NPU)
GPUは使わないか、使っても小規模。
理由
・工場ロボットは安定性・低遅延・決められた動きが中心
・膨大なAI計算は不要
・電力効率とリアルタイム性が最重要
例
・アーム制御:CPU(リアルタイムOS)
・画像認識:小規模GPU or NPU
・センサー統合:CPU
・AI判断:軽量モデル(NPUが最適)
✔ 産業ロボは“GPUゴリゴリ”の世界ではない。
■ 2. サービスロボット(配膳、清掃、警備)
→ 基本:CPU+小型GPU or NPU
中型GPUが入るケースも増加中。
理由
・画像認識・SLAM・物体追跡など“視覚AI”が必要
・中規模のGPU(NVIDIA Jetsonクラス)が適している
・最近はNPU搭載SoC(Snapdragon、Horizon Robotics)も増加
■ 3. 自律走行ロボット(AMR・AGV)
→ 基本:GPU+CPU(またはNPU)
✔ 自律移動ロボ=GPUの比率が高い。
■ 4. ヒューマノイド(Tesla Optimus、Figure 01、Agility)
→ ほぼ100% GPU(+CPU)
■ 最終結論
AIロボは ロボの種類でCPU/GPU/NPUの比率が大きく変わるが、
“高度なAIロボ(自律移動・ヒューマノイド)はGPUが必須”。
そして、そのGPU需要増はあなたの投資先にとってプラス。
ファミレスで配膳してくれるロボットの方が、
工場のラインのロボットよりも賢いんだww
2025/12/10(水) 14:07:00投稿者:??????
現在市場に出回っているCPUでは、推論用で使用する事は出来ないのですか?
結論:「CPUでもAI推論は可能。ただし“遅くて、電力効率が悪く、大規模には向かない”
ため、実用レベルでは専用チップ(GPU・ASIC・NPU)が圧倒的に優位」です。
★CPUは“司令塔”としては優秀だが、AI推論に必要な“大量作業の同時処理”が苦手
◎ 理由:消費電力効率が圧倒的に悪い
・同じ処理をすると、CPUはGPUの数倍の電力を消費
・データセンターの電気代が跳ね上がる
・大量のAI推論サービスを提供するのが不可能になる
クラウド企業は電力コストが最大の問題なので、CPU推論は非効率。
成程ね~
2025/12/10(水) 14:01:00投稿者:??????
学習用のチップと働かせるチップは、違う物ですか?
はい、「学習用チップ(Training Chip)」と「働かせるチップ=推論用チップ
(Inference Chip)」は基本的に別物です。
役割・求められる性能・設計思想が大きく異なります。
① 学習用チップ(Training:モデルを作る側)
● 代表例
・NVIDIA H100 / H200 / B100 / B200
・AMD MI300X
・Google TPU v4/ v5p(訓練用)
・AWS Trainium
● 必要な性能の特徴
・とてつもない計算能力(行列演算が超高速)
・巨大メモリ帯域(HBM)
・大量のGPUをつなぐ高速ネットワーク(NVLinkなど)
・設備も巨大(データセンター規模)
→ “F1マシンのエンジン”。高価で燃費が悪く、でも最速。
● 価格帯のイメージ
1枚 100〜200万円台
AIサーバー1ラックで 数千万円〜1億円超
② 働かせるチップ(Inference:AIを使わせる側)
● 代表例
・NVIDIA L40S / H20(推論寄り)
・Google TPU v5e(推論)
・AWS Inferentia
・Meta MTIA(推論特化)
・Qualcomm / Apple(スマホ内推論)
・Edge AI ASIC(各社)
● 必要な性能の特徴
・学習ほどの絶対性能は不要
・電力効率が超重要
・低コスト
・実行専用に最適化された小型チップも多い
→ “大量に普及する省エネハイブリッドカー”。
● 価格帯のイメージ
・数万円〜数十万円、スマホ向けは数千円レベル
・大量生産でどんどん安くなる
■ なぜFANGが「推論チップ」を作り始めているのか?
■ 推論(働かせる側)がAI時代の“本番”
・ChatGPTを1回動かすときの消費電力
・スマホでAIエージェントを使い続ける負荷
・YouTube自動字幕、TikTokレコメンド、広告最適化
・クラウドAIアシスタント
→ ほぼ全部“推論”です。
そして、世界中でこの推論回数が爆発するため
・GPUだとコスト・電力が重すぎる
・だからFANGは「推論専用チップ」を作り始めている
■ 投資目線のポイント
あなたが持っているETF(1489・200A・316A)に関連付けると…
● ① 200A(日本半導体サプライチェーン)
推論チップが爆発的に増える
→ むしろ最大の恩恵
● ② 316A(FANG+)
FANGの内製化
→ コスト削減 → 利益率改善
→ FANGにプラス
● ③ 1489(日本株全体)
AI投資で設備投資が加速
→ 設備・部材の大手が恩恵
→ 穏やかな追い風
2025/12/10(水) 13:39:00投稿者:??????
FANGがあちっこちがAIチップを作り始めたからAI半導体の価格がさがり普及が
進むと思うが、どう思いますか?
結論から言うと、FANGなど巨大テック企業が自社AIチップを作り始める流れは、
AI半導体の価格下落と普及拡大を加速させる可能性がかなり高いです。
ただし、「全体的な価格下落=NVIDIA完全終了」ではなく、「用途ごとに市場が二極化する」
流れになると考えられます。
■ AIチップ市場はどう変わる?
● 1️⃣ 超高性能クラス(ハイエンド)
・NVIDIA、AMDが中心
・Frontier モデル学習、大規模AIクラスタは引き続きNVIDIA優勢
・価格はまだ高止まり
→ 最先端・最高性能はNVIDIAが維持。ここは価格は急に崩れない。
● 2️⃣ 中・低価格帯(推論、社内AI、エッジ)
・FANG内製チップ(Google TPU、Amazon Trainium/Inferentia、Meta MTIA)
・スマホ系(Apple、Qualcomm)
・中国勢(Baidu、Huawei)
→ ここが一気に価格競争に突入し、値段が下がって普及が爆発する領域。
■ なぜ普及が進むのか?
● ① AIの「推論」は圧倒的にボリュームが多い
ChatGPTやAIエージェントが広がると、
学習よりも「推論(使う側)の計算資源」が莫大に必要
→ 推論チップは大量生産しやすい → 価格低下 → 普及加速
● ② カスタムAIチップは効率が高い
特定用途ならGPUより電力効率が高い
→ 運用コストが安い → 全企業が導入しやすい
● ③ オープンAI、Meta、Microsoftなどが「大量のAI使い放題」を前提にしている
AIがOS化すれば、推論コストを下げないと成長が止まるため
→ 各社が競って低価格化を進める
■ 投資的観点:あなたのPF(1489 / 200A / 316A)への影響は?
● ① AI半導体「普及領域」は日本企業の勝ち筋
・TSMC(200Aの大部分)
・ASML(製造装置)
・Tokyo Electron・SCREEN・アドバンテスト
・HBM関連(SK、Micron、Samsung → 製造装置は日本企業多数)
→ 普及が進むと、日本の製造装置・素材企業に追い風
● ② 高性能分野はNVIDIAが強く、これは316AやFANG+にプラス
FANGは自社チップを作りつつも、
・超大規模学習は結局NVIDIA/HBMクラスタ
→ 需要の天井はむしろ上がっている
● ③ 価格下落はむしろ“普及で市場規模が爆発”しやすい
「半導体価格が下がる=悪い」ではなく、
「安くなって一気に利用者が増える → 市場規模が拡大」
というスマホ時代と同じ構造。
■ 結論
AIチップの自社開発が増えるほど、AI半導体は価格が下がり、多用途で一気に普及します。
これは次のように“全体的にはプラス”の流れです。
・高性能:NVIDIAが独占 → 高価格維持
・大量普及:FANG内製・他社 → 低価格化で市場が広がる
・製造装置・素材(日本勢):稼働率上昇で最大の恩恵
→ AIは「高級品 → 日常必需品」に変わる段階に入った。
→ あなたのPF(200A・1489・316A)にはむしろ追い風です。
ご丁寧に、俺のPFの影響まで説明してくれるww
◎学習用のチップと働かせるチップは違うて事ですね・・・>此処が、わかっていない
twitter検索
|
|
irbank_td2
1632 NEXT FUNDS金融(除く銀行)(TOPIX-17)上場投信
ETFの収益分配金見込額のお知らせ
https://t.co/hfCfgSXpaz |
|---|
|
|
gyakuhibu
7/11 逆日歩日数 1日
1617 (NEXT FUNDS)食品上場投信 5.00円
1619 (NEXT FUNDS)建設・資材上場投信 5.00円
1630 (NEXT FUNDS)小売上場投信 5.00円
1632 (N… https://t.co/QQ07GXji0C |
|---|




週刊SPA!7/24・31合併号のマネー(得)総本部のコーナーで当サイト『恐るべき注目銘柄株速報』のインタビュー記事が掲載されました。

>>502
TOPIXが-5%だから持ち株下がってる人が多いんじゃね
騰落ランキングも下げてる株が倍近いし
>東証プライム:1632銘柄 値上がり: 533 銘柄 値下がり:1043 銘柄 変わらず他: 56 銘柄