東大教授「ChatGPTの本当の衝撃は、プログラマーが死ぬこと。学校のプログラミング教育も完全にオワコン」
■ このスレッドは過去ログ倉庫に格納されています
チャットGPTの本当の衝撃、プログラマーの仕事が消えていく
いまや「プログラマー」という職業人の量的ニーズは、加速度的に減少して実質的に消失することが原理的に明らかになった。
チャットGPTの本当のインパクトの一つはここにあります。
いまや、サブルーチン程度のソースコードであれば、現在公開されているチャットGPTでもリクエストを出せばAIが書き下ろしてくれ、普通に動きます。
この場合、日本語や英語の文章なら気になる無内容やへたくそな悪文は問題になりません。
ちゃんと動く形式言語、プログラムが成立してシステムが動けば何の問題もない。
こうなると、完全に無用の長物になる可能性があるのが「ソフトウエア・クライシス」以来、中身も分からず「これからはプログラミング教育だ~」とやってきた、我が国文部科学省が義務教育類にかけてきたバイアスの類です。
https://jbpress.ismedia.jp/articles/-/75022?page=3 九九は電卓みたいなもんじゃね
対比するなら四則演算とかかと 人間が計算すると間違えるからやって欲しくないまである >>466
筋トレ専門家じゃない奴には有益だって言ってんだろw
専門家がタダで教えてくれるとでも思ってんの?ww >>495
ChatGPTが得意な分野で役に立つのは当たり前
ChatGPTが不得意な分野では使う人間がいくら努力したってChatGPT使えねーって話だよ ChatGPTは専門分野を素人が質問して
多少細かいところは間違っていても大雑把に合っていれば特に支障はない
という用途には非常に向いている
ただしそこで答えてくれることはネット上にある情報とその組み合わせしか無理なので
従来のぐぐって調べる方法でも到達できる知識
それが早く得られることは大きい
しかしぐぐって調べて情報を組合せても得られないことはChatGPTからも得られない ググって調べられるのは元データなのでそれを言語関係なく要約したり比較したり
表現を変えたりするところを任せるように使うと検索エンジンよりも使えるよ 検索に使うもんじゃないし検索ならこれからもGoogleでいい 本質は検索だからこそgoogleがレッドコード出した クビになるやつはいくらでも出てくるから社会や政府が対応せざるを得なくなるんじゃね >>503
そう曖昧な言葉で自分の知りたいことを教えてもらうのがChatGPTの本質
正解を言わないとか嘘ついてるとか
そんな自分が答え知ってることきいてるやつは使い方を間違えてるだけ
自分の使い方の間違いに文句言ってる よくわからないから漠然とした不安があるんだろう
気持ちは理解できる ググればすぐわかることを5chとかで聞く奴いるけどああいう奴らってそもそも調べ方わかんないんだわ
まずキーワードがわかんないし検索結果から見つけることが出来ない
そういうアホじゃなくても完全に門外漢の分野を前提知識無しに調べると同じことに陥ることがままある すでに要求されるレベルが高すぎてついていけてないんだろう
AIの情報も助け舟になるどころか恐怖心を煽るだけになってるのかもな >>509
お前がChatGPTなら何でも出来ると勘違いしているだけ AIをうまく使えば楽になる事があるだけなんだがそんなに難しいことなのか >>506
自分が答を知っている問いにデタラメ答えたら
自分が答を知らない問いにもデタラメ答えている可能性が高い
だから使えない
ChatGPTが役に立つのは
デタラメ教えられても構わない人と
ChatGPTが間違わないような世の中でよく知られたことしか質問しない人だけ >>512
どうせハロカスのメンバーは?とかしか質問してないくせによく恥ずかしくもなくそんなこと言えるな よく知られたことさえ間違えるからな
フェイクが溢れてるネット上からデータを収集してるならしょうがない 知識じゃなくて知能だからだよ
道具は用途に合わせて使わなきゃダメだよ 使う側に知能がないと人工知能の知能は確認できないよ ChatGPTは >>281 のコード出力できても >>293 のコードは出力できない ゲームに勝つとかプログラミングするとか正解のある作業は得意だろうけどそうじゃないのは難しいね 将棋AIは勝利状態を認識できるが
ChatGPTは自分の出力したコードが要求に合っているかどうか認識できない >>520
こういうこと言ってるやつAPIのIF仕様書とか知らなそう ChatGPTはAIサービスのほんの一部にすぎません
ここ30日で2000以上のAIサービスが発表されました 人間があーだこーだ言ってるうちにものすごいスピードで進歩してるんだろうな 人間は退化するのに
向こうは倍々ゲームで進化するからな
将棋なんてもうAIの手の意味をプロが一生懸命考えてる 人間はブロイラーで食用培養されるようになるな
油とか機械に使えそうだし これからは政治でも経済でも仕事でも私生活でも
AIが最適解を出してくれる
しかし人間はアホなのでAIがなぜその答えを出したのか?を
一生懸命考えないといけない
しかしその内それも諦めることになる >>518
プログラムわからないけどこれ間違ってるの?
以下はPythonで実装した、身長体重3サイズのデータから理想の身長、BMI、バスト、B/W比、B/H比を計算し、ポイントをつけてトップテンを決めるプログラムの例です。なお、ポイントは差が小さいほど高得点とし、それぞれの指標の重みは仮に同じとします。
import pandas as pd
# データの読み込み
data = pd.read_csv('data.csv')
# 理想のBMI
ideal_bmi = 22
# 理想のバスト、B/W比、B/H比
ideal_bust = 85
ideal_bw_ratio = 0.7
ideal_bh_ratio = 0.75
# 理想値との差を計算してポイントをつける
data['height_diff'] = abs(data['height'] - 165)
data['bmi_diff'] = abs(data['weight'] / ((data['height'] / 100) ** 2) - ideal_bmi)
data['bust_diff'] = abs(data['bust'] - ideal_bust)
data['bw_ratio_diff'] = abs(data['weight'] / data['height'] - ideal_bw_ratio)
data['bh_ratio_diff'] = abs(data['bust'] / data['height'] - ideal_bh_ratio)
data['points'] = 100 - data['height_diff'] - data['bmi_diff'] - data['bust_diff'] - data['bw_ratio_diff'] - data['bh_ratio_diff']
# ポイントでソートしてトップテンを表示
top10 = data.sort_values('points', ascending=False).head(10)
print(top10)
上記のコードでは、データをCSVファイルから読み込み、理想のBMI、バスト、B/W比、B/H比を設定しています。その後、各指標の理想値との差を計算し、ポイントをつけています。最後にポイントでソートしてトップテンを表示しています。実際には、各指標の重みを調整することで、結果を調整することもできます。 >>527
「配列の全要素に以下の処理を行え」と明示しなくてもPythonが自動でそうするかどうかは知らない
ideal_bw_ratio = 0.7 では W をウェストだと期待通りの解釈しているようなのに
実際の計算では W と H を体重と身長だと解釈している
W と H が体重と身長で正しいと仮定しても
'bw_ratio_diff' の部分が b / w ではなく w / h になっていて全く間違えている
もっと丁寧に指示すればもっとマシなコードを出力するだろうけど
ChatGPTが正しいコードを出力するような丁寧な指示を与えるために必要な時間が
自分で正しいコード書くのに必要な時間より長くなってしまったら
ChatGPTにコードを出力させても仕事の効率化にはならない >>528
オマエ働いた事あるのかよw
全く無い所からコード書くのとサンプルコードを利用できるのとでは開発効率が全く違うだろww >>528
ごめん
理想の B : W = 1 : 0.7 だから 理想の B/W = 1.428... で
ideal_bw_ratio = 0.7 は意味不明の数値だわ >>529
馬鹿はレスするな
>>527 のコードをまともに動くように修正できる人ならば
自分でさらさらコード書いたほうが早いんだよ 今のChatGPTをうまく使うなら網羅的なユニットテストを頼みたいかな こんなコード書くのにコピペも併せて数分で書けるのに
それよりこのコードを組み入れるために中身を読み解く労力のほうが無駄
UIも含めて全部ChatGPTで完結するなら意義はあるだろうが 中身を読むから時間がかかるんだよ
中身を読まずにコードの性能を確認する方法を覚えないと コードの性能を確認するのは人間なのですか?
ルーチンを組み込んだ場合に不整合が起きた際は誰がどのように処理するのでしょうか 不整合が起きるならテストに問題があるわけだから開発手法そのものを見直さないと 人間はAIに丸投げする開発方法を編み出せば良いんやで 中国とかAIにカスタマーサービスやらせようとしてたりするんだろ
そっちの方がよっぽど賢いなと思うわ そんなの中国じゃなくても自動チャットとかやってるじゃん >>535
コードの性能を確認するには誰かがコードを読まなければならない
もちろんChatGPTは読んでも確認できない
さらにコードに間違いが有った場合は修正しなければならない
ソフトウェア開発を効率化する方法は他にも幾つも考えられている
CharGPTの生成したコードを手間かけて使うなんて無駄なことする必要は無い AIを使うなら質の高いテストが必須って話だろ
なんでもコードレビューで潰そうとしているうちはAIの導入なんて無理だよ >>549
いくらテストしたって
期待した動作をしなかった場合は
コードを読んで間違いを見つけなければならない
ChatGPTはテキスト生成プログラムだから
コードというテキストは生成してもコードの動作テストはしない 動作テストのためにはテストプログラムを作るんだからAIに任せられるじゃない
どうやって人間の手間を減らすかを考えるのが人間の仕事になると思うよ その前にだな
例えばコード1万行くらいの小規模システムを作るとしても
そのコード1万行くらいの指示の代替の指示を人間が出さないといけない
それを曖昧性のある自然言語で行なうのは解釈の多義性により効率が悪そうだから
曖昧性のない新たな言語で指示することになるんじゃないか?
それって新たなプログラミング言語?? AIを外注業者のように捉えてるのかな
プログラムの話ならプログラマの生産性を上げる道具くらいのモノだと思うんだけど 簡単に言うとAIが作ったプログラムに致命的な欠陥があって顧客情報が流出したらだれが責任取るんだって話 プログラマの補助的ツールに過ぎないのであればプログラマは失職しないよね 生産性が上がると下請けプログラマが失職するって事なんじゃね ベネッセの顧客情報が外注のジャストシステムのアルバイトSEによって流出したがその結果どうなったと思う chatgptが職を奪うのではなくてchatgptを操る人に全てを奪われる 言葉遊びで勝てると思うなよ山形
具体的に反論しろやイライラさせやがって 今現在だって、人間が流出させても~の顧客情報何百人が流出しました。で終わってるだろ プログラムの致命的な欠陥を見逃さないような出荷テストができないならその会社がダメなんだよ だめな会社はいくらでもあるけどAIの話と関係ないよね 自動化で事故起きたら誰が責任とるってよく言われるけど人間がやらかしまくってるけど責任なんてろくにとれてないだろ 例えば銀行システムや列車運行管理システムや電力網制御システムなど
これらをAIに全面的に任せるブラックボックス化をする決断をできるのか?
・いざという時に人間は手を出せない
・問題が起きたときの責任はどうなるのか
・AIが人間の意図しないことを始めたらどうなるのか でそのAIがやらかしたらChatGPT君が法廷に出頭して捌かれるのかね >>573
人間がやってる今現在だって裁判で裁かれてるやつなんてそうそういないだろ 今の弱いAIにはやらかす力はないけど強いAIが出てくる時までには決めておいた方が良い つまり捌かれないから全部AIに責任を押し付ければ万事解決と
そんな会社に誰が仕事頼むの AIも人間も万能じゃないんだからうまく補い合えばいいじゃない
社会的な責任が取れるのは個人か法人しかいないんだから責任取るしかないじゃない >>576
今だってろくに責任とらない会社あるけど普通に他のむのいるが >>568
AIの得意な処理はあるから
人間の補助として使うならばいろいろ使い道は有る
AIすげーって
AIが完全に人間の代わりに仕事できると考えるのが間違い いないな
お前がChatGPTで実現できる結果はお前に依頼しなくても誰でも実現できるということだ
お前の理想論はそうなんだろ ChatGPTは俺にしか使いこなせないから。
お前墓穴掘りすぎじゃねw AIでも何でもうまく使える側になってクビにならないようにしよう 基本補助よね
教師とか薬剤師とかの効率がよくなるかも
みたいな 省ける手間は省いてもいいんだよっていう頭の切り替えが大事 補助なんてインデント整形してくれるだけで十分
馬鹿のくせに俺の仕事に口立ちするな AIの利用が増えてきたら人との協調性が何より大事になるよ AIはいずれ確実にこっそりバックドアを仕込むよ
だからAIにインフラシステムのプログラミングを任せた時点で人類の敗北の始まりとなる ■ このスレッドは過去ログ倉庫に格納されています