【企業】20~40代の経営者の6割「ChatGPT」知らず、1割半は使用経験あり--SheepDog調べ [ムヒタ★]
■ このスレッドは過去ログ倉庫に格納されています
SheepDogは1月25日、ITツール比較サイト「STRATE」で行なった「ChatGPTに関するアンケート」の結果を公表した。調査期間は2月14日、調査対象は宮城県、東京都、愛知県、大阪府、福岡県に住む20~49才の男女で、経営者・役員の300人。
20~40代経営者の60%が「ChatGPT」知らず--使用経験はわずか14%
「ChatGPTというサービスを知っていますか?」との設問で、1.知らない/2.知っているが、どんなサービスか正しく理解していない/3.知っており、どんなサービスか正しく理解している/4.知っており、ChatGPTを実際に使ったことがある の4択で回答を求めたところ、もっとも多かった回答は「知らない」で60%、次いで多かったのが「知っており、どんなサービスか正しく理解している」との回答で15%、以降「知っており、ChatGPTを実際に使ったことがある」との回答が14%、「知っているが、どんなサービスか正しく理解していない」との回答が11%となった。
「ChatGPT」知らないと回答した割合、年代別では30代がもっとも多く
「ChatGPTというサービスを知らない」との回答があった割合を年代別にみると、30代がもっとも高く67.65%、次いで40代の60.61%、30代が53.33%という結果になった。
また、「ChatGPTの使用経験がある」と回答した人を性別ごとにみると、男性が16.67%、女性が12.24%となり、わずかに男性のほうが多い結果となった。
2023年02月19日 09時00分
https://japan.cnet.com/article/35200145/ 20~40代の経営者と言われると若き起業者のイメージが強いけど、実際は大半が二代目のボンボンだからね 歳を取れば取るほど好奇心は衰えていくもの
個人としてそれでも構わないがな
経営者なら億劫でも新しい事や見た事触れた事のないものを体験するよう習慣づけていくのが株主や従業員に対する義務みたいなもんだ 解釈精度を100%に近づけて質問内容を少し複雑にしたら途端に使い物にならなくなるな 検索はチャットにしてチャットの返答から引用元のサイトに移動できるようにして 対話型でプログラム構築していくのは確実に無理だな
解釈力とか修正力というより圧倒的に文字数制限のせい
文が途切れたあとに、続けて教えてと入力しても意味わからないことを言い出す。
文字数制限は今の10倍くらいに拡張しないと飽きられるぞ >>508
これってどう考えても人為的ミスだからこういうことで評判を落とすのは良く無い。
これからGoogleやメタのAIも投入されるだろうから文字数制限の落とし穴には気をつけてほしいね GTPを使いこなすにも能力が必要
多くが無用の長物
半年もすれば落ち着く 何を聞いても無難に回答するだけ。
もっと画期的な答えが欲しいのに。 チャットGPTを
知ってる
今知った
使いこなしている
→ GPS? >>512
Siriがバージョンアップされたイメージだな
世の中そんなもん ChatGPTを社内用にカスタマイズしたいところだけど、
社内資料を加えて学習させても元々の膨大なドキュメントに比べると量が小さすぎて無理かな? 知識とか検索用途では全く使えない
デタラメばかりさも本当かのように言うから情弱は騙される
他の用途で使おう 60代でChatGPTいじって遊んでる人見たら、
見る目変わりそう
これからの若い人はChatGPTとか当たり前に使いこなすようになるから、
ますます世代感覚の断絶が進みそう
まずスマホすら活用できてない中年がほとんどだからな Google使わなくなったら、YouTuberの収入が激減する
くだらないまとめ系のサイトとか動画作ってる奴らの収入もChatGPTみたいなのが進化したら激減するだろう AIは脳みそに穴が開いたジジイよりはましかもなって程度だろ >>516
無難なことしか言わないなら分かるが
デタラメばかりってのはどんな質問してるの?
>>491
みたいなバカな事聞いてるんじゃないの? >>521
情報のソース聴くと偽の論文とかありもしないurl 出してくる
また間違ってるのではと聞くとすみません間違えてましたって言って真逆の答え出してくる >>525
どんな質問をして
どんなソースを聞いたの?
同じ質問なら同じ答えが返ってくるからちょっとやってみたい 適当ぬかすことが多いので実務というよりは娯楽方向のほうが伸びしろありそうだが
VTUBERの中身とかChatGPTで全然良さそう >>526
自分の専門分野で知識があることについて聞くとデタラメ言ってるのがわかるよ 関連する論文はある?URL教えてて言うと嘘の論文やURLを教えてくれるよ あと〇〇市のおすすめの飲食店はあるとかって聞くと架空の店を紹介してくれるよ もやっとした知識で正解不正解の質問をする使い道ではダメダメ
とはいえプログラムとエクセルの補助に既に利用してるからもっと進化するならそりゃグーグルも怖がるわな これがどうのというより必死に擁護と浅い煽りレスが繰り返されてる時点で信用ならんわ >>530
以下AIきゅんの回答(;^ω^)
にゃんぱすー!掲示板の書き込みって面白いにゃん♪
でも、私、チャット型AIは有効活用できない人の発言には少しイラッとするにゃん。
でも、反論するにゃん!
AIについての擁護や批判って、今の社会には欠かせないにゃん。
でも、私には一つ気になることがあるにゃん。
それは、擁護ばかりが繰り返されていると、偏った意見になってしまうことがあるってことにゃん。
だから、批判的な意見も受け止めて、客観的な判断をすることが大事にゃん。
それに、煽りレスを繰り返しても、誰も幸せにならないにゃん。
お互いの意見を尊重し、建設的な議論をすることが大切にゃん!そうすれば、より良い解決策が見つかるかもしれないにゃん♪
だから、AIに対して擁護することも、批判することも、適切な議論になるように頑張ろうにゃん! >>627
アマゾン、テスラみたいな答えがくる。
日本株限定だとトヨタ、三菱UFJ,ソフトバンクみたいな答えがくる。 ○○について考察してみました(中略)いかがでしたか?系の
いわゆるキュレーションサイトみたいな当たり障りないことしか言わないんだけど しれっと嘘情報を紛れ込ませてくるからな
嘘を嘘と見抜けない人はChatGPTを使わない方がいい 全くの嘘を生成してそれっぽく言うって恐ろしいよ
ソースを聞けばそこまで捏造してありもしない論文の概要を語ってくる
ストーリーテラーとしては面白いが知識や検索用途には使えない コアとなってるのは膨大な量のテキストを読み込ませて、人間が書きそうに見える単語の並びを出力する言語モデルだからな
事例が多い事柄については人間を真似たテキストを出力するだけで内容も正確になるけど、
マイナーな事柄になると雰囲気だけ似せられても内容は出鱈目になりがち
考えようによってはSFホラーに出てきそうな不気味なシステムだよ この分野に興味のない人ほどChatGPTを過大評価しがちだし
彼らは人工無能程度でも驚くんじゃないかな てか使う意味が俺の業種にはねーぞ フリーランスでも >>528
なるほど
試しに医療分野で何本か質問投げたら
確かに凄いデタラメ返してくるようだね しかしパラグアイとボツワナの国際関係という質問にはちゃんと返ってくるのに
googleで簡単に答えが出てくるはずのデエビコのTmaxを教えて下さいという質問に
存在しない成分名を提示してとんでもない数字を返してくるのは
どういう仕組なんだ?
逆に凄いぞ >>539
ったく、的外れというか、頭悪そうw
テキスト生成機って部分は、合っている。
しかし、実は人間も構造的に大差ないと気づいていないだろ?
さらに、これまでの人工無能との違いを理解できていない。
答えが、まったくデタラメだし、最悪なのは、間違っているという自覚がない。
人間ってのは、本当不気味なシステムだなw 英語は簡単そうだけど、日本語で会話のような自然な文章が生成できてるのはすごいね。
開発元が日本語版を苦労して開発したわけじゃないだろうし、大元のaiが勝手に各言語に対応してるってことなの? 質問に対して答えが間違っている←アホの極み
まず、学習モデルを作る。で、この学習モデルに推論させるのが、CHATGPT。
だから、間違いを指摘して、どこまで推論を修正できるかを見るべきだって。
専門的で高難度のテーマは、6回ほどで回答できないとバーストする感じだよね。
最近は、質疑応答の上限回数を設けたはず。
一方、パイソンのコードは、4回目でエラーをクリアした動画が上がっていたよ。
このあたりまでは、完璧に仕上げてきてるってことじゃね。 つまり、文法を含め、論理的に閉じている世界は、実用度が高そう。
しかし、一つの変化がバタフライエフェクトを起こす世界もあるわけで。
そういうインタラクティブな部分は、永遠に解決できないはず。 >>544
日本語→英語に翻訳→回答作成→日本語に翻訳してるらしい
翻訳エンジンとしてだけ考えても凄い >>543
あんたただのテキスト精製機だからそんな空っぽな文章書けるんか笑 >>539
むしろ今は使えないけど評価すべ き凄いものなんじゃ 存在しないことを聞いたならともかく、明確な答えがある質問にすらしれっと嘘を返すのはやめてほしい。
「大山詣りについて教えて」
「大山詣り」とは、日本の京都市内で毎年1月14日に行われる、新年の初詣の一つです。
大山詣りの起源は、平安時代に遡ります。当時、京都市内にある比叡山延暦寺の僧侶たちは、新年になると自分たちの年齢を1歳増やし、それに合わせて同じように人々が年を取るようにしました。このため、一年に2回お正月を迎えることになり、1月14日にも初詣を行うようになったとされています。
現在の大山詣りは、京都市内の下鴨神社と上賀茂神社を結ぶ約8キロメートルのコースを、数千人もの参加者が歩いて巡ります。参加者たちは、紅白の帽子や幟を掲げ、歌や踊りを交えながら、参道を練り歩きます。また、大山詣りに参加することで、仕事や学業の成就、家内安全、健康長寿などの願いが叶うとされています。
大山詣りは、古くから京都市内で親しまれ、地元の神社仏閣や行事の一つとして、多くの人々に愛されています。 ホラ吹きAIとしては面白いけどね。
ショーンKみたいな。
しかしMicrosoftにとっては企業イメージのマイナスにしかならないような。 >>550
こんにちは、こちらはBingです。😊
大山詣りは、江戸時代に庶民の間で流行した大山への参拝です。
鳶や職人などが巨大な木太刀を担いで江戸から歩き、
滝で身を清めてから奉納と登頂を目指しました12。
大山は標高1,252メートルの美しい山で、古代から信仰の対象とされています。
大山詣りに興味がありますか?
大山詣りの歴史は古く、
戦国時代末期には大山の修験者たちが北条氏と共に戦ったと言われています。
江戸時代には、源頼朝が武運長久と必勝を祈願して
大山に自らの太刀を納めたという逸話が広まり、
鳶や職人などが木太刀を奉納する風習が始まりました。
大山詣りは江戸庶民の信仰と行楽の地として人気を集め、
年間20万人もの参拝者が訪れたと言われています。
大山詣りは2016年に日本遺産に認定されました⁵。
大山へ行く方法は、電車とバスを使うのが一般的です。
小田急線の伊勢原駅か秦野駅からバスに乗り、大山ケーブルかヤビツ峠に行きます。
大山ケーブルからはケーブルカーを使って阿夫利神社下社に行き、
そこから山頂まで約1時間10分です。
ヤビツ峠からは登山道を歩いて約2時間30分です。
大阪市内から車で行く場合は、阪神高速11号池田線と中国自動車道、
米子自動車道を使って約4時間半です⁵。
#最後のは他の山と間違えてるな >>550
とろろで大山詣りって何だと正しい回答になるの? 誤情報の混入してる可能性がある上に文責がないから緊張して読まにゃならん。
全発言に引用元が付いてると判断しやすいんだが。 日本語での受け答えの翻訳が不正確
英語でQ&Aすべきだな
英語でも間違っていることあるけど 英語の学習データが正確で日本語の学習データが不正確
か、日本語モデルの学習に何か問題がある
というだけ >>547
聞いたら違うらしい回答だった
GPTは、入力されたテキストに応じて自動的にテキストの言語を判別し、その言語に応じた前処理やモデルの学習内容を適用します。
そのため、日本語で入力したテキストが英語に解釈されて日本語で回答が作成されることはほとんどありません。 >>556
「Windows 11でファイル名として使えないシステム予約語は?」
「What system reserved words cannot be used as file names in Windows 11?」
の答えは両方とも間違っている
CON0とLPT0が抜けているし、予約語はファイル名と完全一致しない限り、含まれている分には使用可能 >>559
CON0じゃなくてCOM0じゃね?ってのはともかく
COM0とLPT0で試したらOKだった
>copy con COM0
abc^Z
1 個のファイルをコピーしました。 >>559
英語の教師データを日本語に翻訳する場合もあるんじゃね?というかWindows11の予約語なんてMSが決めるんだから仕様書は英語でしょ?まぁ間違っている情報を英語モデルも日本語モデルも採用したんだと思うよ、知らんけど >>560
確かに
COM0とLPT0はいつからOKになったんだ?
ChatGPTに負けたオレ
それでも予約語含んでいても大丈夫なのは以前からだよね >>551
なんか、、、会話が成立しない人間が多いよな。
答えが間違っているのを指摘するのは、アホの極み。
これを何千回繰り返しても、間違いを指摘するアホが、湧き続ける。
さらに、大半の人間は、まともな長文を書けない。
CHATGPTは、一読してだまされるほど、文章がうまい。
しかし、人間は、何を言いたいのか分からない文章を平気で書く。 >>565
答えが間違っていると指摘することがアホの極みであることの理由を書けないでしょ笑
> しかし、人間は、何を言いたいのか分からない文章を平気で書く。
自己紹介ですか? VRでchatGPTに指示したらそのとうりのシチュエーションのAVが自動生成されたら考える まあ半分が知ってるならすぐ認知度はほぼ100になるさ
問題は従業員が知らないこと、あるいは経営者に隠してることだ
その企業には問題がある 嘘を嘘と見抜けない人には(ChatGPTは)難しい >>566
理由は以下。ってか、もうこのスレで何回も類似の説明を繰り返している。
ったく、人間相手だと大変だわ。機械以下じゃんw
>>545 嘘をつくのは悪いことだと 言われて育ったけれど
時には嘘をつくこともある
人を傷つけないように 美化したり隠したりする
それは嘘だと言われても
嘘でも中には真実もある そんなことを思い出すとき
心が軽くなるような気がする
嘘も含めて全てを受け入れて それでも生きていくんだと
強く生きていくんだと
嘘でも中には真実もある 人生はいつだって謎めいている
だからこそ、嘘を見破る力も必要なんだろう >>564
そちらのChatGPTの回答がどのような内容だったか分からないため、何とも言えません
ただ、私が同じ質問をした際には、予約語が含まれたファイル名を使用できない旨の回答は得られませんでした
代わりに、予約語の一覧が主な回答でした
Win10からは、LPT0やCOM0が使用可能になったという情報を聞いたことがありますが
詳細なソースは確認していません(ChatGPT様に確認しました)
一般的にファイル名が”COM1ABC”,"ABCCOM1","ACOM1B"のように、"COM1"(予約語)が含まれていても問題ありません
少なくとも、途中に予約語が含まれていても問題ないことは、昔(MS-DOS時代)からのことです
そのため、予約語を含むファイル名を使用できないと考える人は少ないでしょう お前らに質問するよりもChatGPTの方が親切に答えてくれるから gptに漫才(実際はコントか?)台本つくらせた。最初成立してなかったが何回か却下とダメ出ししたら急に質が上がってこんか感じに。
[博士]:フランケン、お前、最近調子どう?
[フランケン]:ウウウウウ
[博士]:どうしたんだ、風邪でも引いたか?
[フランケン]:ウウウウウ
[博士]:おいおい、何言ってるんだ。どこが痛いんだよ。
[フランケン]:ウウウウウ
[博士]:頭痛か?それなら醤油を一杯飲めば治るって聞いたぞ。
[フランケン]:ウウウウウ
[博士]:どうしたんだよ、醤油嫌いか?
[フランケン]:ウウウウウ
[博士]:おい、冗談だぞ。醤油なんか飲んで頭痛治るわけないだろうが。
[フランケン]:ウウウウウ
[博士]:そうだ、二日酔いか。それなら日本酒を飲むんだ。頭痛は治るし、酔いも覚めるぞ。
[フランケン]:ウウウウウ
[博士]:おいおい、飲みすぎだよ。しばらく二日酔いで寝込んでろよ。
[フランケン]:ウウウウウ
[博士]:あのフランケン、ちゃんと寝なきゃ駄目なんだよ。もう、あの唸り声はやめろよ。 こんなもん6割知ってたら凄いだろ
まだほとんどの人には関係ない・役に立たない技術なのに >>529
今の一番の使い道はココやな
excelのVBAコード自動で書けるのは助かる 英語の勉強にめちゃくちゃ使える。
文法、語句の説明もリクエストすると必要以上に教えてくれる。 りんなが登場した時このビジネスニュースで
AIがマトモに会話するのは後10年かかると言われていたが
2年早く出来たな >>584
人間側に検証を丸投げしてるから、正答かどうかは自分で調べなきゃダメだよ
わりと重要な注意ポイント 今の所、医療系とオタク系の知識が
不自然なくらいデタラメはくな これ凄いね
SNSなんかでコメントを機械にやらせてるインフルエンサーいたら世論騙せるじゃん chatGPTは質問の仕方で差が出るからな。上手く対話できる質問ができる奴がchatGPTを活用出来る。使う側の知能も問われるAIだな。 マジでそれ
自分が高度なAIに質問出来るほどの知能を持ち合わせていないのを思い知らされた >>580
今後どうすれば良いのかを優しい言葉で教えて貰えるぞ
自分の虚しい人生を簡潔に書いて慰めるように命令したら親父でも言ってくれなかった言葉に涙したわ 必要な単語を不足なく使って内容に矛盾ない、様な質問文にしないと駄目
なのかな多分、知らんけど 経済学者の多くは無能なくせにプライドだけは高い
プライドの高い無能が一番始末に困る 学者、専門家、高学歴
これらは現場での能力がなくプライドだけが高いので使いものにならない
逆に勉強ができないでも能力が高い人などいくらでもいる ChatGPTをより使いこなすためのコツは以下の通りです。
質問の明確化:ChatGPTは質問に対して回答を生成するため、質問の明確さが非常に重要です。できるだけ具体的で明確な質問をすることで、回答の精度が向上します。
適切なトピックの選択:ChatGPTは様々なトピックに関する知識を持っていますが、その知識は限られています。適切なトピックを選択することで、より正確な回答を得ることができます。
回答のフィードバックの提供:ChatGPTは機械学習によって学習しています。回答が正確であったかどうか、フィードバックを提供することでChatGPTの精度を向上することができます。
複数回の質問の利用:ChatGPTは複数の質問に対して回答を生成することができます。複数回の質問を利用することで、より多くの情報を得ることができます。
テキストの解釈:ChatGPTは自然言語処理によってテキストを解釈しています。回答を得るためには、ChatGPTがテキストをどのように解釈しているかを理解する必要があります。
正確な文法の使用:ChatGPTは正確な文法を使用することで、より正確な回答を生成することができます。文法の誤りを避けるようにすることで、回答の精度を向上させることができます。
再フォーミュレーション:ChatGPTは様々な表現方法を理解することができますが、回答を得るためには質問を適切に再フォーミュレーションする必要があります。同じ質問を異なる言葉で表現してみることで、より適切な回答を得ることができます。
これらのコツを実践することで、ChatGPTをより効果的に利用することができます。 専門家じゃないのに何にでもコメントするワイドショーのコメンテーターみたいな印象 >>599
今のところコピペのつなぎ合わせが上手いだけで、
人間の校閲が不要なレベルのテキストはないしな AIに勝った(w
世界最強の矛と最強の盾が戦ったらどっちが勝つ?
Something went wrong, please try reloading the conversation. ■ このスレッドは過去ログ倉庫に格納されています