今週(8/11〜8/17)も"凡人AIブロガーパンくん"が 「AIの進化についていけない…」 そんなあなたに是非読んで欲しい、AI最新情報をまとめていきます!
今週は大きな発表は少なめでしたが、 GPT-5のアップデート情報 やClaudeの進化などAIを使用する僕や読者の皆さんにとって影響のあるニュースがありました。
今週も第1部では読者の皆様が 無料で今すぐ試せるAI情報 を中心に。第2部ではもっと知りたい人向けの最新モデルや技術を紹介します。この記事を読んで今週のAIニュースを一気に把握できます。
それでは今週もいってみよう!
第1部:無料で使える/すぐ試せる機能
GPT-5が温かくフレンドリーな性格にアップデート
OpenAIは8月15日にGPT-5のデフォルトパーソナリティを改善し、より温かく、親しみやすい応答が返ってくるようにしました。これは「初期のGPT-5は控えめでプロフェッショナルすぎる」というユーザーからの声に対応したものです。
具体的には「いい質問ですね」「素晴らしいスタートですね」といった自然な感謝や共感の表現を追加し、 会話体験をより心地よく なりました。一方で、不自然なお世辞や過剰な追従性は増えていないと内部評価で確認済みとのことです。
利用はこれまで通り無料プランを含む全ユーザーが対象で、ChatGPTを使えばすぐに体験できます。
このアップデートは非常にいいですよ!僕もGPT-5を使用していてGPT-4に比べて「なんか冷たいな」と感じていました。GPTを友達のように使っていたユーザーからするととても良いアップデートだと思います。
ChatGPT最新アップデート ― 「Auto」「Fast」「Thinking」モード追加
OpenAIは2025年8月12日にChatGPTに「Auto」「Fast」「Thinking」の3つのモードを追加しました。これによりユーザーは用途に応じて応答スタイルを選択できます。 通常は「Auto」が推奨 で、状況に合わせてモードを選択できます。
「Fast」では速さを重視し、「Thinking」ではより深い推論や精度の高い 回答が得られます。特に「GPT-5 Thinking」では最大196,000トークンのコンテキストを処理可能で、Plusユーザーは週3,000件まで利用できます。制限を超えると「GPT-5 Thinking mini」で追加容量を使用可能です。
利用は「Auto」と「Fast」は無料プランを含む全ユーザーが対象で、「Thinking」は有料プラン(Plus以上)限定です。モード切替はChatGPTの画面からすぐに行えます。
僕の感想としてはモードは多くない方が良かったなと思っています。用途によってどのモードが最適なのかがわからないので、一つのモデルに統合されていた方が扱いやすいなと思います(笑)。ただ、今後使ってみて用途ごとに最適なモードが見えてきたら、また別の記事で詳しく紹介しようと思います!
ChatGPTとGmail・Googleカレンダー連携が可能に
2025年8月12日にChatGPTに新しい「コネクタ」機能が追加され、Gmail・Googleカレンダー・Googleコンタクトをチャットに 直接接続できるようになりました。これにより「昨日のメールを要約して」と聞けばGmailの内容をまとめてくれたり、「明日の予定は?」と聞けばカレンダーから予定を読み取って答えてくれるなど、 必要な情報をAIが自動的に参照して 会話に取り込めます。
利用はProユーザーから順次展開が始まり、数週間以内にPlus、Team、Enterprise、Eduプランにも拡大予定。有効化はアプリの「設定」→「コネクタ」→「接続」から可能です。ただし、この機能は情報の参照に限られており、新しい予定を追加したりメールを送信したりといった操作はまだできません。
これは本当に便利だと思います。僕も普段からGoogleカレンダーを使っていますが、アプリを開かずにChatGPTが予定を確認してくれるのはありがたいですね。今後のアップデートで予定を追加したり編集できるようになれば、さらに手放せない機能になりそうです!
第2部:もっと知りたい人向けの最新AIニュース
Claude Sonnet 4がAPIで100万トークン対応
2025年8月12日発表
AnthropicはClaude Sonnet 4のAPIを拡張し、最大100万トークンのコンテキスト処理に対応しました。 これは従来の5倍 にあたり、75,000行を超えるコードや数十本の研究論文を含む大規模な資料を、1回のリクエストで処理できるレベルです。
これにより、数百ページ規模の文書の要約や巨大コードベースの解析が可能となり、研究者や開発者にとって強力なツールとなります。
現在はベータ版として提供されており、無料では利用できないようです。
僕の感想としては75000行も打ち込むことはないのであまり実感はわきません(笑)。ですが、確実にAIの精度が上がってきていますよね。2倍とかではなく、5倍に進化しているのも技術の成長スピードを改めて感じました。今後どこまで行ってしまうのか、楽しみでもあり不安でもあります(笑)。
Higgsfield「Product-to-Video」:商品や衣装を動画に挿入できる新機能
Higgsfieldは2025年8月12日に プロンプト不要で映像を演出できる 「Product-to-Video」機能を公開しました。ユーザーはフレーム内に商品や衣装などの画像を直接配置し、矢印や短いテキストで動作を指示するだけで、俳優が飲み物を持つ・服を着替えるといったシーンを自動生成できます。
複数の画像を組み合わせた複雑な演出も可能で、 まるで映画監督のように ビジュアルでAIを操作できます。
対応モデルは「Veo 3」「MiniMax Hailuo 02」で、現在は有料プランのみで利用可能。広告やSNS動画制作に活用できる次世代機能です。
この機能を知ったとき僕はもう誰でも簡単に映画を作れる時代が来てるんだなと感じました。プロンプトも不要なのが凄くいいですよね。頭ではイメージできてるんだけど、言葉では説明できないような状況を画像などを配置して表現できるのは凄く便利だなと感じました!
身近な進化と最先端の飛躍—AIとどう向き合う?
今週は大きな発表はないものの、 GPT-5の最新アップデート やCloudeの進化などAIの進化の速さに驚かされる一週間でした。
特にGPT-5の対応の速さにはとても驚かされました。ユーザーの声を聞きすぐに対応する。これがAI時代を最先端で走っているOpenAIの凄さなんだと感じさせられました。
大きな発表はなくても、毎週のようにAIは進化していきます。一緒に AI最新情報 を追っていきましょう!僕自身ももっと読者の皆さんに満足してもらえるような記事を書けるように頑張っていきます!
コメント