むかしむかし、シリなんだか人工知能っぽい感じがしました。 Apple は、音声アシスタントに AI を大幅に強化することで、その感覚を一周させました。WWDC。
月曜日のアップルの主にソフトウェアに焦点を当てた基調講演で、同社は新しい「アップルインテリジェンス大まかに言えば、理論的には AI のおかげで、Siri は音声コマンドを使用して特定のアプリ内で特定のアクションを実行できるようになりました。音声コマンドを使用して、理論的には AI のおかげです。Apple Intelligence を備えた他のすべてのものと同様、iPhone 15 Pro (またはそれ以降) が必要です。 )、または少なくとも M1 チップを内蔵した iPad または MacBook。
WWDC 2024: 新しい Siri 機能が発表
クレジット: 写真
Apple のプレゼンテーションは迅速かつ猛烈なもので、これらの個々のアップデートに費やされる時間はほとんどありませんでした。
マッシュ可能な光の速度
Siri の大きなアップデートには次のものが含まれます。
コマンドの途中で間違いを犯し、すぐに修正した場合、Siri は修正内容を認識します。
会話のコンテキスト。つまり、Siri は会話中にユーザーが以前に尋ねた内容を記憶し、それを応答に組み込みます。
名前がわからないデバイスの機能について説明すると、Siri がそれを教えてくれます
画面上の認識により、画面上のアドレスを誰かの連絡先カードに追加するなどのことが可能になります
「この写真をポップにする」などのコマンドを使用した自動写真補正
会議メモの概要をメールで共有する
「個人的なコンテキスト」とは、テキスト メッセージやメモなどに保存されているあなたに関する詳細を Siri が知っていることを意味します。
ChatGPT の方が Siri よりもプロンプトにうまく答えることができると Siri が判断した場合、代わりに ChatGPT を使用するかどうかを尋ねられます。
繰り返しになりますが、Apple のプレゼンテーションは次のとおりでした。非常にざっと説明したものなので、これらすべての機能がどのように機能するかについてはまだ詳細がわかりません。しかし、好むと好まざるにかかわらず、AI が Siri に登場します。