Is AI good or bad? A deeper look at its potential and pitfalls

私たちはそれについてどう感じているかわかりませんAI

ChatGPT が 2022 年にリリースされて以来、生成 AI の熱狂は恐怖と誇大宣伝を同時に引き起こし、一般の人々は何を信じるべきかさらに迷っています。

によるとエデルマンの信頼バロメーター年次レポート, アメリカ人は年々テクノロジーに対する信頼を失っています。アメリカ人の大多数が望んでいるのは、AI の使用に関する透明性とガードレール— しかし、誰もがそのツールを使用したことさえあるわけではありません。 40 歳未満の人々と大学教育を受けたアメリカ人は、生成 AI に対する意識が高く、使用する可能性が高くなります。Axiosが報告したBlueLabsの6月の全国世論調査によると。もちろん、楽観主義は政治的な方針にも当てはまります。BlueLabs の世論調査では、共和党員の 3 人に 1 人が、AI が日常生活に悪影響を及ぼしていると考えているのに対し、民主党員の 5 人に 1 人であることがわかりました。アン4月からのイプソスの世論調査も同様の結論に達しました。

AI を信頼するかどうかは別として、AI が強力なツールとなる可能性があるかどうかについては、あまり議論がありません。ウラジーミル・プーチン大統領ロシアの学生たちに言った2017年の学校初日に、AI競争をリードする者が「世界の支配者」になるだろうと予想した。イーロン・マスク氏の引用ツイートVerge の記事にはプーチン大統領の引用が含まれており、「国家レベルでの AI の優位性をめぐる競争が第三次世界大戦の原因である可能性が最も高い」と付け加えられています。あれは6年前のことだった。

これらの議論はすべて、AI は良いのか悪いのかという 1 つの重要な疑問を引き起こします。

これは重要な質問ですが、答えは「はい」か「いいえ」よりも複雑です。生成 AI には、将来性があり、効率を向上させ、社会の問題の一部を解決できる可能性のある使用方法があります。しかし、生成 AI を使用する方法もあり、それは暗く、邪悪でさえあり、貧富の格差を拡大し、雇用を破壊し、誤った情報を広める可能性があります。

結局のところ、AIが良いか悪いかは、誰がどのように使われるかによって決まります。

生成AIの積極的な活用

ビッグテックが約束する AI の大きなプラスは効率性です。 AI は、データ入力と処理、顧客サービス、在庫管理、データ分析、ソーシャルメディア管理、財務分析、言語翻訳などの分野で反復的なタスクを自動化できます。コンテンツの生成、パーソナル アシスタント、仮想学習、電子メールの並べ替えとフィルタリング、サプライ チェーンの最適化により、従業員にとって退屈なタスクが少し簡単になります。

AI を使用して、トレーニング計画または助けてください旅行の旅程を作成する 一部の教授は自分の仕事を整理するためにそれを使用しています。たとえば、ハワード大学の助教授であり、電気電子学会の会員であるグロリア ワシントンは、できる限り生活を楽にするためのツールとして ChatGPT を使用しています。彼女は Mashable に、ChatGPT を主な 2 つの理由で使用していると語った。それは、情報をすばやく見つけるため、もう 1 つは教育者としてこれまでとは違う働き方をするためである。

「メールを書いていて、自分が何のことを言っているのかを本当に知っているかのように見せたい場合は、ChatGPT を使用して、言い方を改善するためのちょっとしたヒントやヒントを提供します。電子メールやコミュニケーション全般に​​含まれる情報だ」とワシントン氏は語った。 「あるいは、スピーチをする場合は、自分の話の要点に簡単に組み込むことができる、非常に迅速な何かを [ChatGPT に協力を求めます。]」

教育者としては、彼女の宿題への取り組み方に革命をもたらした。彼女はまた、電子メールやコーディング言語を支援するために ChatGPT を使用することを学生に勧めています。しかし、それはまだ比較的新しいテクノロジーであることはわかります。教師の 80% が「生成 AI の使用ポリシーと手順に関する正式なトレーニング」を受けていると回答しましたが、「生徒が不適切な方法で生成 AI を使用した疑いがある場合の対応方法について指導を受けている」と回答した教師は 28% のみでした。盗作などは許されます」民主主義とテクノロジーセンターの調査によると

「昨年度の私たちの調査では、学校が生成型 AI の使用を巡る政策の導入に苦戦していることがわかりました。それ以来、大きな成果が得られたことを嬉しく思います。」と民主主義とテクノロジーセンターの社長兼 CEO のアレクサンドラ・リーブ・ギブンズ氏は述べています。プレスリリースで述べた。 「しかし、このテクノロジーが学校で使用されることの最大のリスクは、解決されないままになっています。生成AIと関連検出ツールの責任ある使用に関する教育者へのトレーニングと指導にギャップがあるためです。その結果、教師は生徒に対して不信感を抱き続けており、さらに多くの生徒がいます」困っているよ。」

AI は、製造、物流、顧客サービス業界における効率を向上させ、人的エラーを削減できます。大規模なデータセットを分析し、複雑なシステムをシミュレートし、データ駆動型の発見を支援することで、科学研究を加速できます。資源消費の最適化、汚染の監視、環境問題に対する持続可能な解決策の開発に使用できます。 AI を活用したツールにより、パーソナライズされた学習体験が強化され、より幅広い個人が教育を受けやすくなります。 AI には、医療診断、創薬、個別化された治療計画に革命をもたらす可能性があります。

人道的テクノロジーセンターの上級政策マネージャーであるカミーユ・カールトン氏は、ポジティブな点は否定できないが、ネガティブな点を無視する価値があるという意味ではないとマッシャブルに語った。

マッシュ可能な光の速度

「これらの潜在的な将来の利点が、今日、これらのテクノロジーに注意を払わず、ガードレールを設置するという決定を引き起こすべきではないと思います」と彼女は述べた。 「なぜなら、これらのテクノロジーが不平等を増大させ、二極化を促進し、精神的健康の悪化に影響を与え続け、そして体系的な偏見を増大させる可能性はすべて非常に現実的であり、それらはすべて今起きているからです。」

生成型 AI のマイナス面

生成 AI の否定的な側面を恐れる人は誰でもラッダイトであると考えるかもしれませんし、おそらく実際にそうなのですが、それは今日この言葉がどのように伝えられているかよりも文字通りの意味です。ラッダイトとは、1800 年代初頭の英国の労働者のグループで、自動繊維製造機を破壊しました。テクノロジーを恐れたからではなく、テクノロジーによって自分たちの仕事が安全に奪われることを保証するものが何もなかったからです。さらに、彼らは経済的に不安定なだけではなく、機械のせいで飢えていました。もちろん、この言葉は、単に新しいテクノロジーであるという理由だけで、新しいテクノロジーを恐れたり避けたりする人を軽蔑的に表現するために使用されます。

実際には、生成 AI には疑わしいユースケースがたくさんあります。考えてみると健康管理たとえば、私たちの身体的および精神的な健康について AI を信頼できるようになる前に、心配すべき変数が多すぎます。 AI は、X 線や MRI による医療画像を分析して病気の診断や異常の特定を支援することで、医療診断などの反復的なタスクを自動化できます。これは良いことかもしれませんが、米国人の大多数は医療分野での AI の使用増加に懸念を抱いていると、ある報告書は述べています。モーニングコンサルのアンケート。彼らの懸念はもっともです。医療におけるトレーニング データは不完全、偏り、または不正確であることが多く、テクノロジーの良さはデータによって決まるため、誤った診断、治療の推奨、または研究の結論につながる可能性があります。さらに、医療訓練データは多くの場合、多様な集団を代表していないその結果、特に有色人種の患者にとって、正確な診断や治療へのアクセスが不平等になる可能性があります。

生成 AI モデルは医学的なニュアンスを理解しておらず、ベッドサイドでの適切なマナーを提供できず、説明責任を欠いており、医療専門家によって誤解される可能性があります。また、データが AI を通過する場合、インフォームド・コンセントの取得、生成されたコンテンツの悪用の防止が重要な問題となる場合、患者のプライバシーを確​​保することははるかに困難になります。

「国民は、それが吐き出すものは何であれ神のようなものだと見ている」とワシントンは語った。 「残念ながらそれは真実ではありません。」ワシントン氏は、ほとんどの生成 AI モデルはインターネットから情報を収集して作成されており、インターネット上のすべてが正確であるわけではなく、偏見がないわけではないと指摘しています。

AI の自動化の可能性は、失業や経済的不平等を引き起こす可能性もあります。ゴールドマン・サックスは3月に次のように予測した。AIは最終的に3億人のフルタイム雇用を置き換える可能性がある世界中で雇用の 5 分の 1 近くに影響を与えています。 AI2023年5月には約4,000人の雇用が削減されるビジネスリーダーの 3 分の 1 以上が、昨年 AI が労働者に取って代わったと述べています。CNBCによると。これにより、クリエイティブ産業の労働組合が主導され、SAG-AFTRAのような、もっと戦うためにAI に対する包括的な保護。 OpenAI の新しい AI ビデオ ジェネレーター Sora は、クリエイティブ業界にとって雇用代替の脅威をさらに現実的なものにします。シンプルなプロンプトからフォトリアリスティックなビデオを生成する機能

「AIを使ってガンの治療法を見つけられるようになったとしたら、不平等がひどくなり完全な社会不安が起こる前に実現するのでしょうか?」カールトンは質問した。 「二極化が進み続けた後にそれが起こるのか?民主主義の衰退がさらに進んだ後に起こるのか?」

分かりません。 AI に対する恐怖は、必ずしも SF 映画のようなものではありません。アイロボット』はある種のドキュメンタリーになるだろうが、それを利用することを選んだ人々は善意を持っていない可能性があり、あるいは自分の作品の影響さえ分かっていない可能性がある。

「人工知能が、人間がやるべき仕事や目的を持たなくなるところまで進歩するという考えは、私には決して共感できませんでした。」ChatGPTを立ち上げたOpenAIのCEO、サム・アルトマン氏はこう語った。去年。 「働かないという選択をする人もいるでしょうし、それは素晴らしいことだと思います。私はそれが有効な選択であるべきだと思いますし、人生の意味を見つける方法は他にもたくさんあります。しかし、私はこれまでに、そうであるという説得力のある証拠を見たことがありません。」より優れたツールを使用して私たちができることは、作業を減らすことです。」

AI のさらにいくつかの疑わしいユースケースには、次のようなものがあります。侵襲的監視、データマイニング、およびプロファイリング、個人にリスクをもたらすプライバシーそして市民的自由;慎重に開発しないと、AIシステムはバイアスを継承する可能性があるトレーニングデータから、雇用、融資、刑事司法などの分野で差別的な結果につながる; AI は、次のような倫理的な問題を引き起こす可能性があります。自律型兵器、危機的な状況での意思決定、そしてAI エンティティの権利; AI システムに過度に依存すると、人間による制御や意思決定が失われ、複雑な問題を理解し対処する社会の能力に影響を与える可能性があります。

そして、偽情報もあります。私の言葉を鵜呑みにしないでください。アルトマンもそれを恐れています。

「これらのモデルが大規模な偽情報に使用される可能性があることを特に懸念しています。」アルトマン氏はこう語った。。 「現在、彼らはコンピューターコードを書くのが上手になっているので、攻撃的なサイバー攻撃に使用される可能性があります。」たとえば、AI が生成した音声について考えてみましょう。ジョー・バイデン大統領のように聞こえるように作成されたロボコール

ワシントン大学教授、生成AIは誤った情報を生み出すのが得意ケイト・スターバードはアクシオスに語った。のMITテクノロジーレビュー人間は信じる可能性が高いとさえ報告されていますAIが生み出す偽情報他の人間よりも。

「生成 AI は合理的でもっともらしく聞こえるコンテンツを作成しますが、正確さはほとんど考慮されていません」とスターバード氏は述べています。 「言い換えれば、それは[でたらめ]ジェネレーターとして機能します。」実際、一部の研究では、AI が生成した誤った情報は、人間が作成した誤ったコンテンツよりもさらに説得力があることが示されています。

これはどういう意味ですか?

「正味の善し悪しについてこの質問をする代わりに…私たち全員にとってもっと有益なことは、どのように良いのかということです。」カールトンさんは言いました。 「私たちが目指しているより良い場所に私たちを連れて行くために、これらのシステムにかかるコストは何ですか?そして、誰にとって良いことですか、誰がこのより良い場所を経験することになりますか?その利益は残された人々にどのように分配されるのでしょうか?」これらの利点はいつ現れるのでしょうか? すでに害が起こった後に現れるのでしょうか? より悪い精神的健康とより深刻な二極化が進む社会は、私たちの価値観を反映しているのでしょうか?私たちが住みたい世界は?」

各国政府はAIのリスクを認識し、被害を軽減するための規制を設けている。欧州議会は抜本的な法案を可決した。AI法「高リスクの AI アプリケーションから保護するため、バイデン政権は大統領令サイバーセキュリティと生体認証における AI の懸念に対処するため。

生成 AI は、成長と進歩に対する私たちの生来の関心の一部であり、近隣諸国よりも大きく、より良く、より技術的に進歩するための競争でできるだけ早く前進します。環境科学者であり教育者でもあるドネラ・メドウズ氏は次のように書いています。システムにおける成長と思考の限界: 入門書尋ねます、なぜ?

「成長は、これまであらゆる文化が生み出した最も愚かな目的の一つだ。私たちは『もう十分』を持たなければならない。」メドウズは言った。 「私たちは常に、『何の成長が、なぜ、誰のために、誰がそのコストを払うのか、それはどれくらいの期間続くのか、地球へのコストはいくらなのか、そしてどれくらいあれば十分なのか』を常に問うべきである。」

生成 AI の要点は、人間の知性を再構築することです。しかし誰がその基準を決めているのですか?通常、その答えは裕福な白人エリートです。そして、人間の知性の欠如がそもそも問題であると誰が決めたのでしょうか?おそらく私たちは、AI では計算できない共感をもっと必要としているのでしょう。

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.