感覚を持ったロボットアシスタントの時代はまだ到来していませんが、AIはあなたの次の同僚になるべく名乗りを上げています。
米国の労働者の半数以上が、現在、仕事で何らかの形の AI を使用しています。によると国際調査経済協力開発機構(OECD)による従業員5,000人を対象とした調査では、AIユーザーの約80%がAIによって仕事のパフォーマンスが向上したと報告しており、主に自動化の推進を指摘している。一部の人にとって、AI の倫理的統合は職場での最大の懸念事項2024年の。
しかし、支持者たちは、AI テクノロジーがより公平な職場を改善し、合理化する可能性がいかに大きいかに注目していますが、おそらく皆さんの仕事でもすでに AI が活用されている例があるでしょうが、それは私たちが急いで AI を職場に導入すべきだという意味ではありません。仕事。
OECD の同じ調査では、引き続き懸念が存在することも明らかになりました。雇用の喪失と賃金の減少AI が雇用情勢に深く食い込んでいる。あ別の調査CNBC と SurveyMonkey による米国労働者の調査では、従業員の 42% が AI が自分の仕事に及ぼす影響を懸念しており、その割合は低所得者や有色人種の労働者に偏っています。
そして、AIベースの詐欺、現在進行中の議論政府の規制と心配になります。オンラインプライバシー(「新しい」AI リリースの完全な過飽和は言うまでもありませんが)、AI の将来に関しては、まだ不明な点がたくさんあります。
の世界に足を踏み入れるのが一番です働くAI少しの不安を抱えながら、あるいは少なくともいくつかの疑問をポケットの中に抱えて。
正確にはどのような種類の AI について話しているのでしょうか?
最初のステップ: 人工知能全体についてよく理解します。この用語が一般的に使用されるようになるにつれて、「人工知能」は特定の名詞ではなく、さまざまなテクノロジーやサービスを指す包括的なフレーズに進化しました。
Mashableのセシリー・モーラン人工知能を定義する「人間が設計した特定のタスクを自動化または実行できるテクノロジーの包括的な用語」として。彼女は、現在多くの人が AI と呼んでいるものは、実際には生成 AI または汎用人工知能として知られる、より具体的なものであると指摘しています。モーラン氏の説明によると、生成 AI は「ユーザーからのプロンプトに基づいてテキスト、画像、ビデオ、オーディオ、コードを作成する」ことができます。この使用法は最近、幻覚(またはでっち上げられた事実)を生み出し、誤った情報を広め、詐欺やディープフェイクを助長するとして非難を浴びています。
他の形式の AI には、単純な推奨アルゴリズム、ニューラル ネットワークとして知られるより複雑なアルゴリズム、およびより広範な機械学習が含まれます。
Saira Meuller が Mashable にレポートしているように、AI はすでに職場に組み込まれていますGmail の予測機能、LinkedIn のレコメンデーション システム、Microsoft の一連の Office ツールなど、さまざまな方法で (そしてあなたの人生を) サポートします。
ビデオ会議中にオンになるライブトランスクリプトやキャプションなどの単純な処理は、AI に依存します。また、個人用デバイスやオフィス ソフトウェアの音声アシスタント内で、データ収集を容易にするアルゴリズムの形で、あるいはスペルの提案や言語翻訳を提供する機械学習として、この情報に遭遇する可能性もあります。
あなたの会社には AI ポリシーがありますか?
AI ツールが日常業務ですでに採用されているユースケースから外れており、さらなる監視が必要である可能性があることが判明したら、経営陣に連絡を取ります。後悔するよりは安全な方が良いです!
あなたの会社には、どのような種類の AI サービスを業務に組み込むことができ、どのように使用するべきかについてのガイドラインが整備されていることが望ましいですが、そうでない可能性は高いです。The Conference Board の 2023 年の調査では、次のことが判明しています。企業の 4 分の 3 には依然として組織的な AI ポリシーが不足していました。ルールがない場合は、マネージャーに明確にしてもらい、使用しているテクノロジによっては、場合によっては法務チームや人事チームにも明確にしてもらいます。
職場によって事前に承認された生成 AI ツールのみを使用してください。
で世界的な調査ビジネス管理プラットフォーム Salesforce による従業員の割合を調査したところ、28% の従業員が生成 AI ツールを仕事に取り入れていると回答しましたが、ツールを適切かつ倫理的に使用するためのトレーニングを受けていたのは 30% のみでした。驚くべきことに、7,000 人の従業員のうち 64% が、生成 AI の作業を自分のものとして偽装したと報告しました。
マッシュ可能な光の速度
調査チームは、監視なしでの使用の回答率に基づいて、従業員には会社が承認した生成 AI ツールとプログラムのみを使用し、生成 AI のプロンプトでは企業機密データや個人を特定できる顧客データを決して使用しないことを推奨しました。
大企業でもこんな感じりんごそしてグーグル過去には生成 AI の使用を禁止しました。
生成 AI ツールを使用する前に考慮すべきこと:
データプライバシー。生成 AI を使用している場合、チャットボットやその他の LLM などのツールにどのような情報を接続していますか?この情報は、あなたが一緒に働いている個人にとって機密情報ですか、それともあなたの仕事に固有のものですか? AI が使用するデータは何らかの方法で暗号化または保護されますか?
著作権の問題。創造的なコンセプトをデザインするために生成 AI システムを使用している場合、そのモデルをトレーニングするために必要な芸術的データを技術者はどこから調達しているのでしょうか? AI が生成する画像、ビデオ、または音声を使用する法的権利はありますか?
正確さ。 AI ツールによって提供される情報を事実確認しましたか、または幻覚を発見しましたか?この技術は不正確であるという評判がありますか?
AI は誰に仕えるのでしょうか?
AI が日常のワークフローのどこに適合するか、および生成される AI 出力と対話するのは誰であるかを区別することも重要です。チャットボットやアシスタントなどの AI ツールを自分の日常業務に組み込むことと、業務タスク全体を AI ツールに置き換えることには違いがあります。 AI の使用によって誰が影響を受けますか?あなたまたはあなたのクライアントに対するリスク? AIの使用の公開は疑問です法律事務所には明確な答えがない、しかし、アメリカ人の大多数企業にはそうすることが義務付けられるべきだと考えています。
考慮すべきこと:
自分自身のブレインストーミング プロセスのためだけにアイデアを生成するために AI ツールを使用していますか?
AI の使用により、あなた、あなたの同僚、または顧客に何らかの意思決定が行われますか?慣れていますか従業員を追跡、監視、評価する?
AI によって生成されたコンテンツは、クライアントや社外の誰かが見ることになりますか?それが彼らに開示されるべきか、そしてどうやって?
AIの責任者は誰ですか?
会社から許可を得て、使用している AI の種類も理解しましたが、今度はより大きな倫理的問題を考慮する必要があります。
多くのAI監視団体は、この分野でのイノベーションを急ぐあまり、少数のビッグテック企業が集合体となってAI開発の大部分に資金を提供し、支配していると指摘している。
AI政策研究機関AIの今これらの企業が独自の対立や論争を抱えている場合、これが問題になる可能性があると指摘しています。同研究所は、「大規模なAIモデルは、膨大なコンピューティングとデータリソースを必要とするため、依然としてビッグテック企業によって主に管理されており、差別、プライバシーとセキュリティの脆弱性、環境への悪影響について十分に文書化された懸念も示している」と述べている。 2023 年 4 月のレポート。
AI Now はまた、いわゆるオープンソースの生成型 AI 製品 (ソフトウェア プログラムのソース コードが公開され、一般のユーザーが自由に使用または変更できることを意味する呼称) の多くは、実際にはブラック ボックスのように動作すると指摘しています。ユーザーとサードパーティの開発者は、AI とそのアルゴリズムの実際の内部動作を見ることがブロックされています。 AI Now はこれを、オープンソース プログラムとオープンアクセス ポリシーの融合と呼んでいます。
同時に、連邦規制の欠如と不透明なデータプライバシーポリシーにより、監視されていないAI開発に対する懸念が生じています。次のAIに関する大統領令ジョー・バイデン大統領から、いくつかのソフトウェア会社が連邦監督のために安全性テストを提出することに同意したリリース前に、外国の影響を監視する取り組みの一環。しかし、標準的な規制ガイドラインはまだ開発中です。
そのため、自分がどのような業務に従事しているか、会社のパートナーシップ (さらにはそのミッション ステートメント)、特定の AI 開発者が作成した製品の使用に重複する可能性のある利益相反を考慮する必要があるかもしれません。
考慮すべき点:
AIを開発したのは誰ですか?
他社の成果物をソースとしていますか、それとも OpenAI の Large Language Model (LLM) などの API を利用していますか?
あなたの会社はAIの所有者と競合するビジネスを持っていますか?
同社のプライバシー ポリシーと、生成 AI ツールに与えられたデータがどのように保存されているかをご存知ですか?
AI 開発者は何らかの監督に同意していますか?
AI には関連するバイアスがある可能性がありますか?
最も賢い AI であっても、その作成者、AI が構築するアルゴリズム、およびそのソースとなるデータに固有のバイアスが反映される可能性があります。同じ 4 月のレポートで、AI Now は、人間の意図的な監視によって、この傾向が阻止されるのではなく、繰り返されることが多いと報告しています。
「何が『意味のある』監督となるのか明確な定義はなく、自動化ツールのアドバイスを受けた人々は自動化バイアス、つまり精査せずに自動化システムを尊重する傾向があることが調査でわかった」と同組織は明らかにした。
の記事で会話、テクノロジー倫理と教育の研究者ケイシー・フィールダーは、多くのテクノロジー企業は次のように書いている。AI利用による社会的影響を無視する技術革新を支持します。
AI ソリューションには、「技術的負債」(ソフトウェア開発で、ソリューションを急いでリリースすることによる将来のコストを指す言葉として使われます)ではなく、彼女が「倫理的負債」と呼ぶものが伴う可能性があります。フィールダー氏は、AI システムに対する警戒心はバグではなく、AI システムが増幅する可能性に焦点を当てていると説明しています。有害な偏見や固定観念そしてAIを活用する生徒たち欺瞞的に。について聞いていますプライバシーの問題、誤った情報に騙される人々、労働搾取そしてどれだけ早くなるかという不安人間の仕事が代替される可能性がある、いくつか例を挙げると。これらの問題はソフトウェアの不具合ではありません。テクノロジーが抑圧や偏見を強化するという認識は、ウェブサイト上のボタンが機能しないという認識とは大きく異なります。」
アルゴリズムを使用して患者のケアや保障を決定する健康保険会社など、AI システムを使用して自動化サービスを提供する一部の企業は、社会的影響と法的影響の両方に対処しています。 AI システムの使用が詐欺に当たると主張する患者主導の訴訟に応じて、連邦政府は、このテクノロジーが詐欺であることを明らかにした。人間の監視なしにカバレッジを決定するために使用することはできませんでした。
教育現場では、生徒と教師の両方が、課題を盗用したり、アルゴリズムのバイアスに基づいて生徒を不当に罰したりするために、倫理的に危険な方法で AI を利用しているとして非難されています。こうした間違いは、職業上の影響も伴います。
「開発プロセス中の限定的なテストによって技術的負債が生じるのと同じように、倫理的負債は起こり得る悪影響や社会的危害を考慮しないことから生じます」とフィールダー氏は書いている。 「そして特に倫理的負債の場合、それを負った人が最終的にそれを支払う人になることはほとんどありません。」
あなたの職場は、連邦健康保険制度や将来世代の教育に比べてはるかに賭け金が低いように見えるかもしれませんが、AI を使用する際にどのような倫理的義務を負う可能性があるかは依然として重要です。