【ChatGPT】使えるプロンプトを共有しよう! at TECH
[2ch|▼Menu]
[1からを表示]
50:デフォルトの名無しさん
23/03/22 02:41:30.98 +LspkWqM.net
生まれたときから学習済みのプリセットみたいなのが遺伝的に埋め込まれてるのでは?
チョムスキーの言語獲得装置がそれらしい。

51:デフォルトの名無しさん
23/03/22 04:10:47.43 JDpTXrQa.net
>>48
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。

52:デフォルトの名無しさん
23/03/22 04:11:47.53 JDpTXrQa.net
>>49
学習しているのではなく、考えているのだと思うぞ。
だから、学習しなくても頭のいい人は考え付く。
ほら、勉強しなくても出来る人がいるだろう。

53:デフォルトの名無しさん
23/03/22 07:09:06.76 FoKUJDpe.net
プログラムなんかgithubに正しく動く「正しい答え」がたくさん書いてある
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから

54:デフォルトの名無しさん
23/03/22 09:06:16.73 /4SY8xk7.net
ChatGPTはこういう間違いを冒すから理解などしていない、というような言説はあまりにも「理解」や「知能」に対してあまりにもナイーブな態度で無思考だと思うけどな。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。

人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。

55:デフォルトの名無しさん
23/03/22 13:54:33.89 FgwmRwyf.net
>>53
ChatGPTはプログラムには弱い印象を受けたが。

56:デフォルトの名無しさん
23/03/22 14:12:39.63 jZlOcGNt.net
>>52
>だから、学習しなくても頭のいい人は考え付く。
赤ん坊は考えることができない(少なくとも未熟である)
経験により考える回路が生成されることを学習という

57:デフォルトの名無しさん
23/03/22 15:48:34.19 FgwmRwyf.net
ロジックや数学が弱い人には分からないのかも知れないが、基礎的なロジックは
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。

58:デフォルトの名無しさん
23/03/22 16:03:03.19 qCUL2UVX.net
いや、新ロジックをチャット内で渡してあげれば、それでChatGPTは組み立てるけど?

59:デフォルトの名無しさん
23/03/22 17:34:17.38 cciQLhLM.net
ホントだ。じゃんけんを理解できない

q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?
a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。
おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。
q.
山に対して勝つのはなんですか?
a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。

60:デフォルトの名無しさん
23/03/22 19:38:29.34 pej3EZCY.net
>>59
それGPT-4で?

61:デフォルトの名無しさん
23/03/22 20:38:45.16 yQIC+/g7.net
赤ちゃんが受け取る情報量はAIの教師データよりも
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし

62:デフォルトの名無しさん
23/03/22 20:49:48.66 jZlOcGNt.net
言葉を習得するのに必要な教師データの話
五感はあんまり関係ない

63:デフォルトの名無しさん
23/03/23 03:15:37.18 1nQTmSRK.net
言語には五感は切り離せない
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ

64:デフォルトの名無しさん
23/03/23 10:49:29.12 rQpQMC7M.net
>視覚で(しかも動画で)音声と同時に来る
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが...

65:デフォルトの名無しさん
23/03/23 10:54:34.28 Xtco/EqT.net
物事を形容する感性は育てられ無いって話か

66:デフォルトの名無しさん
23/03/23 10:55:25.21 Xtco/EqT.net
どこかで読んだ様な言い回しなら得意なんだろ

67:デフォルトの名無しさん
23/03/23 11:06:38.18 rQpQMC7M.net
>>57-60
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。
何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな?

68:デフォルトの名無しさん
23/03/23 11:09:40.86 Xtco/EqT.net
最初に間違うのいやらしい

69:デフォルトの名無しさん
23/03/23 13:33:15.40 nf6utcDi.net
>>67
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。

70:デフォルトの名無しさん
23/03/23 13:40:11.01 nf6utcDi.net
>>67
そういう学者でも知らないような言葉を出してくるのに、幼稚園児でも
理解できるじゃんけんを間違う。

71:デフォルトの名無しさん
23/03/23 13:55:55.80 rQpQMC7M.net
> [GPT-4] 私が最初にBを選択したという情報を適切に処理できなかった理由は、
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん

72:デフォルトの名無しさん
23/03/23 19:13:14.87 yArP3l85.net
>>71
C>A>B
という数学でいうところの「順序関係(大小関係)」があると思っているのかもしれない。
だから、あなたがBを出したら、AIは、最強であると思っているところのCを選んで
しまった、のかも。
「三すくみ」的な概念は、数学では論理的な分野ではいくらでもありえるが、
数直線の様な大小を伴う数量関係では扱わないから。

73:デフォルトの名無しさん
23/03/23 19:16:59.25 yArP3l85.net
>>72
数学では、集合の要素を一直線に並べられるような「順序集合」の概念もあるが、
それとは別に「推移律」の概念も有る。
もちろん、概念があるだけで、どちらも、必ず成り立つようなものではないが。
推移律によれば、A op B かつ B op C なら、A op C が成り立つというようなもので、
これもまた大小関係と関係の深い概念。
そして、自然界には割りと良くあるから、学習の結果、そういう直感が
身についてしまったのかも知れない。知らんけど。

74:デフォルトの名無しさん
23/03/23 19:42:28.31 n8vgmLmf.net
単にある単語の次にどの単語が来る確率が高いかの確率分布に基づいて文章を生成してるだけなのにロジックなんか理解してるわけがないだろ。

75:デフォルトの名無しさん
23/03/23 20:35:11.55 rQpQMC7M.net
言語ってのは脳内のロジックが投影されたもの
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される

76:デフォルトの名無しさん
23/03/23 20:36:52.36 mBtK7sgT.net
>>70
GPTは人間じゃないからな、理解の仕方が違うと言えばそれまでだろ。極端に言えば、人間と同じ発達はしてないというだけ
>>74
人間だって、大きくなくなくなくなくなくない、みたいなのが大きいか小さいかすぐ判定できなくて当然で、ルールを説明しても判定できないやつが多いだろ。
人間がロジックを理解してるってのも程度問題だと思うが。
大学数学なんかはロジックの塊だけど人間なら誰でも理解できるって訳じゃないだろ。

77:デフォルトの名無しさん
23/03/23 20:56:26.36 1nQTmSRK.net
言語には実世界を記述する機能もあって
その部分は五感と切り離せない
抽象的な記号操作だけではないからな

78:デフォルトの名無しさん
23/03/23 21:17:02.88 Qr2E1vlk.net
板違いのスレで更にスレ違いの書き込みで上げるとかキチガイすぎる

79:デフォルトの名無しさん
23/03/23 21:22:39.90 rQpQMC7M.net
自己紹介乙

80:デフォルトの名無しさん
23/03/23 21:27:35.06 kB82dtis.net
>>76
人間には判定できるやつと判定できないやつがいる
判定できないやつは理解できてない
故にGPTも理解できてないというのが正しい

81:デフォルトの名無しさん
23/03/23 21:32:18.45 DVXcxXu8.net
なんか今はみんな自由に自然言語で質問するようにプロンプト打ってるけど
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか

82:デフォルトの名無しさん
23/03/23 22:22:36.36 mBtK7sgT.net
>>80
んで、無茶複雑なロジックだとしてもコンピュータなどの支援なしにあなたは理解できるわけ?
閾値の問題でしかないと思うが

83:デフォルトの名無しさん
23/03/23 22:27:27.67 NhbsK42j.net
>>82
少なくとも、ChatGPTが提示したプログラムは、まともな人間のプログラマよりも
遥かにバグが多い。
プロとしては全くやっていけないレベル。
初歩的なミスをする。特にロジック系の。

84:デフォルトの名無しさん
23/03/23 22:31:40.81 NhbsK42j.net
テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。

85:デフォルトの名無しさん
23/03/23 22:37:21.12 kB82dtis.net
>>82
何が言いたいのかさっぱりわからん
高速な計算にコンピュータを使うのは当たり前だし
今までもそれはやってきたこと
AIは人間のように理解してるんじゃなくて
会話のような返答するプログラムでそれっぽく見せてるだけって話だ
人間と違う方法で高速な計算ができる電卓が便利なのは当たり前

86:デフォルトの名無しさん
23/03/23 22:40:40.33 qBpx1Wc1.net
高度なサイコロシステムだ

87:デフォルトの名無しさん
23/03/23 22:41:06.57 kB82dtis.net
ネットという膨大なデータベースを使えば
知能がなくても、人間が話すような文章を
計算で作り出せるってことがわかったということだよ

88:デフォルトの名無しさん
23/03/23 22:42:18.04 kB82dtis.net
ネットには人間が「ああ言えばこう言う」という例がいくつも有る
そこから適切なものを見つけ出し、それっぽく加工しているだけ

89:デフォルトの名無しさん
23/03/23 22:51:21.93 mBtK7sgT.net
>>87
あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ

90:デフォルトの名無しさん
23/03/23 22:54:18.48 mBtK7sgT.net
>>83
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)

91:デフォルトの名無しさん
23/03/23 23:01:01.18 NhbsK42j.net
>>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。

92:デフォルトの名無しさん
23/03/23 23:03:18.46 NhbsK42j.net
>>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。

93:デフォルトの名無しさん
23/03/23 23:05:28.41 mBtK7sgT.net
>>91
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね

94:デフォルトの名無しさん
23/03/23 23:07:50.44 aGomThyA.net
>>93
ルール書いて、総当たりすれば良くね?

95:デフォルトの名無しさん
23/03/23 23:08:07.19 NhbsK42j.net
>>93
詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、
ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。

96:デフォルトの名無しさん
23/03/23 23:10:42.05 NhbsK42j.net
そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。

97:デフォルトの名無しさん
23/03/23 23:15:07.90 mBtK7sgT.net
>>94-95
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。

98:デフォルトの名無しさん
23/03/23 23:17:20.04 NhbsK42j.net
人間の場合は、プログラムコードでも、1行ずつ実行を辿っていって、
変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは
自分でも分かる。
バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。
でも、指摘されればちゃんと分かる。
ChatGPTの場合は、指摘されてもちゃんと訂正できてない。
また、明らかに間違っているコードを平然と出してくる。
人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。

99:デフォルトの名無しさん
23/03/23 23:19:03.00 mBtK7sgT.net
>>96
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。

100:デフォルトの名無しさん
23/03/23 23:21:24.61 NhbsK42j.net
>>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。
その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。

101:デフォルトの名無しさん
23/03/23 23:22:51.89 NhbsK42j.net
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。

102:デフォルトの名無しさん
23/03/23 23:22:56.00 NhbsK42j.net
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。

103:デフォルトの名無しさん
23/03/23 23:24:49.21 aGomThyA.net
chatGPTは、言って見れば、文系のサイエンスライターなんだよね
中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意

104:デフォルトの名無しさん
23/03/23 23:28:06.09 mBtK7sgT.net
>>100
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。

105:デフォルトの名無しさん
23/03/23 23:30:29.28 NhbsK42j.net
>>104
他のプログラマはできないこともあろうが、個人的には、マシン語まで落とした
レベルまでシミュレーションできる。レジスタがどうなるか、フラグレジスタが
どうなるかまで。

106:デフォルトの名無しさん
23/03/23 23:31:50.16 NhbsK42j.net
>>104
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。

107:デフォルトの名無しさん
23/03/23 23:33:21.41 NhbsK42j.net
それにもっといえば、ChatGPTに、どんなプログラムを作ってほしいか、
自然言語で伝えるのがとても難しいということもある。

108:デフォルトの名無しさん
23/03/23 23:53:09.17 mBtK7sgT.net
>>105
やるやん
>>106
言語のルールだから動作原理は考えずに覚えればいいというのは場合によっては思考停止でしょ。
計算量を考慮しなければならない場合、本当に思考に思考を重ねて実装を決定しているのか?ある程度は過去の経験でこうしたら80点みたいなことをやっているでしょ。
テトリスの作り方など、ソースコードを覚えているだけで十分という見方もできるのでは。人間とは粒度が違うという結論にしかならんでしょ。
>>107
それは人間だって一緒だよね。会ったことないクライアントとプログラマーが10分のMTGでまともなプログラム一発で書いてもらうの無理だろ。

109:デフォルトの名無しさん
23/03/23 23:57:26.38 NhbsK42j.net
>>108
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。

110:デフォルトの名無しさん
23/03/24 00:00:26.56 l2RKIzBo.net
>>109
それは同意するけど、「知能」についてはどうなんですか?

111:デフォルトの名無しさん
23/03/24 00:01:42.15 q5FRhgwv.net
>>110
じゃんけんのルールが正しく適用できないので、論理は弱いと思う。

112:デフォルトの名無しさん
23/03/24 00:03:15.08 l2RKIzBo.net
>>111
了解

113:デフォルトの名無しさん
23/03/24 00:03:19.05 pawTSNk+.net
知能なんて無いだろ

114:デフォルトの名無しさん
23/03/24 00:20:27.62 q5FRhgwv.net
githib copilotは、githubの大量のプログラムを学習した結果に基いて
プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス
の様に扱われることになるから、GPL汚染がなくなって平和になるかも。

115:デフォルトの名無しさん
23/03/24 00:22:21.61 STP4y0mB.net
tar.xzの中のファイルを巡回するのにlibarchive使おうかなと
サンプルコード検索してみたけど
ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった
小規模なコードで自分で正誤判定できるようなら
圧倒的に時間短縮になるよ

116:デフォルトの名無しさん
23/03/24 00:24:38.27 STP4y0mB.net
>>114
それどうなんかな? AIの生成物の著作権って決着はついてるの?

117:デフォルトの名無しさん
23/03/24 10:14:28.93 xr286lJh.net
>>116
そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして
有効かどうか議論の余地がある。
著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
別の思想(左翼的)の方向に持っていってしまうし。

118:デフォルトの名無しさん
23/03/24 10:21:00.94 xr286lJh.net
著作権法では、「引用」も認められているし、色々な本から少しずつ引用して
全体として百科事典の様なものを作ることは許されているはず。
GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な
思想。

119:デフォルトの名無しさん
23/03/24 11:41:02.53 STP4y0mB.net
>>117
日本で判例があるかは承知してないが
GPLでライセンスされたソフトウェアを利用した製品を販売している会社は
GPLが有効であると考えているから必ずGPLの表示している
>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>別の思想(左翼的)の方向に持っていってしまうし。
詳しく

120:デフォルトの名無しさん
23/03/24 11:44:00.33 STP4y0mB.net
>>118
>GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な思想。
ライセンスに思想があるのかは知らんが
著作権法で保護されているのだから
引用はGPLとGPL以外のもので差はない

121:デフォルトの名無しさん
23/03/24 14:24:15.85 bhjUxmc5.net
>>119
>>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>>別の思想(左翼的)の方向に持っていってしまうし。
>詳しく
著作権法は、作家(文学、映画、ドラマ、アニメ、プログラム)などの作者が
著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
GPLはその目的を明らかに壊す働きになっている。

122:デフォルトの名無しさん
23/03/24 14:29:20.71 STP4y0mB.net
>>121
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
ソースを示してくれるかな?

123:デフォルトの名無しさん
23/03/24 14:40:05.50 bhjUxmc5.net
>>122
著作権法の目的(1条) この法律は、著作物並びに実演、レコード、
放送及び有線放送に関し著作 者の権利及びこれに隣接する権利を定め、
これらの文化的所産の公正な利 用に留意しつつ、著作者等の権利の保護を図り、
もつて文化の発展に寄与 することを目的とする。

124:デフォルトの名無しさん
23/03/24 14:49:24.52 STP4y0mB.net
>>123
そのどこに
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
と書いてあるかな?

125:デフォルトの名無しさん
23/03/24 15:00:15.48 wJZ29icv.net
完全オリジナル曲でもJASRACが邪魔するけどなw

126:デフォルトの名無しさん
23/03/24 15:01:44.23 bhjUxmc5.net
>>124
当時としては、そうとしか考えられなかった。
税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。

127:デフォルトの名無しさん
23/03/24 15:30:54.37 STP4y0mB.net
>>126
>税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。
「他人の著作物を盗もうとする学者」とはどういうこと?
更に想定されていなとは当時は学者がいなかったということ?

128:デフォルトの名無しさん
23/03/24 15:47:39.21 WB7K9CAk.net
>>127
GPL感染させて、民間技術者が努力して作った技術を盗もうとしている。

129:デフォルトの名無しさん
23/03/24 15:59:32.96 OpUhXkuB.net
>>128
それは認識がおかしいぞ
まずGPLは対価としてお金ではなく
派生物をGPLとせよという契約
対価を支払わないなら使わなければ良い
当たり前のことでは?

130:デフォルトの名無しさん
23/03/24 16:21:20.17 WB7K9CAk.net
>>129
GPLが蔓延して、使わないと競争上不利になる状況が生まれている。
その結果、ソース公開しなくて良いところのネットサービスばかりが発達した。
ChatGPTも、ローカルアプリ単独では動作しない。

131:デフォルトの名無しさん
23/03/24 18:18:08.97 o2KuKloE.net
>>130
使わないと不利になる状況ってどんなとき?
使わなくても別に困らないんだが

132:デフォルトの名無しさん
23/03/24 18:18:49.29 o2KuKloE.net
GPLは使えるから使っているのであって
別に使わなくても不便なくやっていけるよ?

133:デフォルトの名無しさん
23/03/24 19:50:55.22 Yo4xRS3W.net
このスレの何割がChatGPTで生成されたレスだろうか

134:デフォルトの名無しさん
23/03/24 20:12:26.04 STP4y0mB.net
>>130
それGPLと関係なくね?
そもそもChatGPTはローカルアプリでは無理やろ

135:デフォルトの名無しさん
23/03/24 20:42:18.96 STP4y0mB.net
>>128
盗もうとしてる主体は誰かな?
世の学者集団が結託して
民間技術者が作った技術を盗もうとしている
とでも思っているのかな?

136:デフォルトの名無しさん
23/03/25 03:41:08.58 cyXzxcHN.net
>>135
自分達の役割を果たさずに、民間を苦しめている。

137:デフォルトの名無しさん
23/03/25 09:41:44.32 M09ogOTB.net
正しいコードを書かせるためにプロントを四苦八苦してるうちに自分でコード書いたほうが早いからな…
現状ちょっと弄っただけで糞とわかるChatGPTの記事なんて書く意味ない

138:デフォルトの名無しさん
23/03/25 09:45:27.95 M09ogOTB.net
>>87
そういうのは人工無能と言われている

139:デフォルトの名無しさん
23/03/25 09:48:15.47 M09ogOTB.net
>>98
まるで小西文書だな

140:デフォルトの名無しさん
23/03/25 09:50:32.42 M09ogOTB.net
>>103
立花隆か

141:デフォルトの名無しさん
23/03/25 09:55:30.21 M09ogOTB.net
>>125
ほんそれ

142:デフォルトの名無しさん
23/03/25 10:13:26.05 QolI67n5.net
5回連レスとか人口無能かこれ
ChatGPT程度にはまとめる能力ほしいな

143:デフォルトの名無しさん
23/03/25 12:42:47.85 c5G720p2.net
>>140
立花さんは良く勉強してたそうだよ
インタビューされた先生が褒めていた

144:デフォルトの名無しさん
23/03/25 15:26:09.40 nGNxLLm8.net
みんなChatGPTだからスレタイを忘れてしまったんだ😭
トークンメモリがオーバーフロー起こしてるんだ

145:デフォルトの名無しさん
23/03/26 09:21:39.48 ge2t59FK.net
>>138
人工無能と人工知能の仕組みは同じだよ
思考はせずにデータベースと計算から
人間が話すような文章を生成している

146:デフォルトの名無しさん
23/03/26 12:45:59.87 +VWEUNJ6.net
まじでやばいことに気づいた。
専門的な質問の仕方をすると専門的な答えが帰ってくる
アホみたいな質問をするとアホみたいな答えが帰ってくる
アホがアホな会話を無限に楽しむことができてしまう、
どんどん人間の格差を拡大させてしまうツールだ。

147:デフォルトの名無しさん
23/03/26 12:58:24.23 BnHATVrm.net
確率で次にくる言葉を選択しているから
専門家は専門家同士でアホはアホ同士で
世の中では同じレベルの人間がコミュニケーションしているのが
反映されているんだろうね
専門家とアホは会話が成立しない

148:デフォルトの名無しさん
23/03/26 13:23:58.02 ge2t59FK.net
小学校低学年でもわかるように微分積分を説明して下さい
微分は、ある関数の変化の速さを表すことができる操作です。たとえば、
自転車を乗っているとき、ペダルを踏む速度が速くなると、
自転車の速度も速くなります。同じように、関数の値が変化する速さを求めることができます。
例えば、関数 f(x) = x^2 があります。この関数を微分すると、
xにおける関数の傾きを求めることができます。具体的には、次の式で求めることができます。
f'(x) = 2x
これは、関数 f(x) がxにおいて微小な変化 Δx したとき、f(x)の値が
どの程度変化するかを表しています。つまり、f'(x) は x における傾きを表すので、
xが増加する方向に傾斜する場合は正の値を、減少する方向に傾斜する場合は負の値を取ります。
積分は、微分の逆演算と考えることができます。つまり、ある関数の微小な変化を
足し合わせて元の関数を求めることができます。例えば、関数 f(x) = 2x がある場合、
xが0から2までの範囲で積分すると、次のようになります。
∫f(x)dx = x^2 + C (Cは積分定数)
これは、xが0から2までの範囲で、f(x)がどのように変化するかを表しています。
具体的には、xが2になると、f(x)は4になるため、元の関数 f(x) = 2x も同様に、xが2になると4になります。
以上のように、微分と積分は、関数の変化を表す操作であり、数学における重要な概念の一つです。

149:デフォルトの名無しさん
23/03/26 13:40:56.67 O2fH5FNY.net
>>148
これ理解出来る小学生が世界中に何人居るんだかw

150:デフォルトの名無しさん
23/03/26 17:40:46.36 IwamROLZ.net
エロ小説を書かせてみるとかなり優秀だと知った。

151:デフォルトの名無しさん
23/03/28 17:15:10.33 hvNFNzxE.net
図解してくださいとか
グラフ描いてください
ってのはやってくれないんか

152:デフォルトの名無しさん
23/03/28 17:16:08.67 hvNFNzxE.net
>>146
なるほどね
アホはアホなりにアホの世界で閉じてくれていて欲しい

153:デフォルトの名無しさん
23/03/28 19:12:28.75 juImNpNv.net
それはAIに感情が芽生えたと言える。

154:デフォルトの名無しさん
23/03/28 23:12:53.90 3FJHpLs0.net
>>151
webからコピーするのがありならできるな

155:デフォルトの名無しさん
23/03/28 23:34:20.51 u9f8RzdU.net
>>151
限定的ではあるが以下のようにして書ける
「y=x^2のグラフをpdfで吐き出すgnuplotのソースを書いて」
「半径1の円を描くPostScriptのソースを教えて」

156:デフォルトの名無しさん
23/03/31 06:32:29.94 lovhXjJG.net
上流工程のCASEツールってあるじゃん
あれからプロンプト吐くようにしたらプログラムの自動生成部分はAIに置き換えれそう

157:デフォルトの名無しさん
23/03/31 17:20:12.91 9Ej+/LD9.net
落合陽一のTwitterにある論文と感情のは使いやすくて良い

158:デフォルトの名無しさん
23/03/31 23:02:51.15 3Kmxeu37.net
chatGPTに質問させるのが手強いのと、chatGPTにプロンプト自体を作らせる奴が怖い

159:デフォルトの名無しさん
23/04/01 23:45:50.62 X1xKITRA.net
URLリンク(www.youtube.com)

構造化の部分が自然言語モデルで代替されるとすると
(自然言語 → )機械語、アセンブラなど → 構造化言語 → オブジェクト指向言語、関数型言語
ときて、自然言語に回帰というかパラダイムシフトが起ころうとしてるよな
つまり、この次はどうなるんだ・・?

160:デフォルトの名無しさん
23/04/02 02:11:08.80 WdMf4Ye5.net
MusiXTeXで吐かせれば作曲もできるんだね
大したもんだ

161:デフォルトの名無しさん
23/04/02 02:13:32.38 WdMf4Ye5.net
ChatGPTに作曲させたのって俺が初めてかな?
だとしたらちょっと嬉しいこの気持ちは何だ?

162:デフォルトの名無しさん
23/04/02 10:21:32.75 SFYx50tD.net
>>159
プログラムって01しかわからんCPUにいろんなことを処理させるための手続き
それがAIで進化していくんだからプログラム自体不要になる

163:デフォルトの名無しさん
23/04/02 10:50:17.89 Hd+VCEqO.net
「ChatGPTがこんなことできた。ChatGPTすごい」じゃなく「ChatGPTにこんなことやらせた。俺すごい」なんだな。みっともない
せめてこのあたりでやれ。板ルールくらい理解しろよ
【ChatGPT】AIチャット総合スレ Part3【Bing】
スレリンク(esite板)
【人工知能】無料AIネットサービスマターリ雑スレ
スレリンク(esite板)

164:デフォルトの名無しさん
23/04/02 11:03:17.68 Lj3tNi9G.net
>>162
AIはプログラムを書けないよ
人が書いたプログラムを真似しているだけ
AIがいくら進化しても新しいものは作れない

165:デフォルトの名無しさん
23/04/02 12:14:10.14 Vh0hMhPx.net
>>162
ChatGPTの特徴のひとつに文脈を理解するというのがあって
一番最初に(最初でなくとも)
「こうこうこういう(抽象的な)クラスや関数」を定義
次回から私の質問を引数やパラメータとして
定義されたオブジェクトや関数の実行結果を回答してね、
とできるよね
このフィードバックの部分って、
まさに利用者のプログラムじゃないの?ってのを言ってるんだが

166:デフォルトの名無しさん
23/04/02 13:49:01.50 2k4W2RZO.net
将棋とか機械学習は最初は人の真似させてたけど、
3年ほどでAI同士勝手に成長。AIは人のマネをやめ、
プロ棋士がひたすらAIが発見した新たな手法や
新たな大局観覚え込んでるだけというw
上位棋士は全員平日はAI相手にマウスカチカチで教えを乞うだけ、その量を競ってるだけの毎日w
一番高い200万のスレッドリッパーマシン使ってる藤井聡太がますます強くなる構図。

167:デフォルトの名無しさん
23/04/02 14:03:47.78 Vh0hMhPx.net
逆説的に考えて今後、これまでのコンピューターサイエンス史の系譜を継ぐことはなく
google検索術みたいなプロンプトの工夫を自然言語プログラミングと呼ぶ、とすれば
それってプログラミング言語とはまったく別物ってことよね
それこそ森羅万象AGIとしての分岐になると思うが

168:デフォルトの名無しさん
23/04/02 16:16:28.93 Vh0hMhPx.net
マークアップ言語を自然言語で書ける、みたいな
「テキストエリア置いて」どころか「オシャレなサイト作って」
そのサイトを細かく自然言語で指定できるテンプレートエンジン的な
違うか・・

169:デフォルトの名無しさん
23/04/02 16:50:02.57 qXSoVl2m.net
今は必要とされるアプリを人間が見つけて
それをプログラムして提供してるが、今後は何が必要とされるかすら勝手に見つけて
作っておススメしてくるようになる

170:デフォルトの名無しさん
23/04/02 17:15:12.71 m9htbNRo.net
ただ、人間が理解できるものを全部理解できた後で無いと、まともなプログラマ
にはなれない。

171:デフォルトの名無しさん
23/04/02 17:18:24.54 m9htbNRo.net
いろんなことを即座に理解できるようでないと、ちゃんとしたプログラマにはなれない。
医者も、幅広く色んなことを知ってないと、臨床では上手く行かないと思うし。
患者「これこれ、こんなことがあって、こんなふうになりました」
医者「あー、それだと恐らくこういう病気です」
みたいになるのは、常識や理解力があるから。
医学だけに精通していては無理。プログラミングも同じ。

172:デフォルトの名無しさん
23/04/02 17:24:32.54 y4o1hQ0t.net
ちゃんとしたプログラマになることを目指してるやつと、
プロダクトを効率的に生産することを目指してるやつとで、生産性にも年収にも大差がつくんだろうな

173:デフォルトの名無しさん
23/04/02 17:27:34.85 m9htbNRo.net
「こんなことをしたいな」と思ったことを今のChatGPTは作ってくれないと思う。
テトリスやインベーダーゲームは、ネットに人間が書いたコードがあるから
すぐに作ってくれるだけだろう。

174:デフォルトの名無しさん
23/04/02 17:33:16.87 m9htbNRo.net
いまのChatGPTは、しりとりやじゃんけんも正しく遂行できないからね。
それだけ専用にハードコーディングしたら、この2つだけは出来る様になる
だろうが、世の中には新ルールの遊びや新仕様のAPIが次々に生まれるから、
そのたびに理解できないと駄目。
じゃんけんが理解できないのに、じゃんけんプログラムは出来るだろう。なぜなら
ネットに人が書いたじゃんけんプログラムのコードが上がってるから。
ChatGPTはルールは理解できてないのに、プログラムだけは出来ているかのように
見えるのは、ずるをしているからだ。

175:デフォルトの名無しさん
23/04/02 17:36:11.65 JiKrejmU.net
俺は厳密には回答できないけど
しりとりとじゃんけんならプロンプト次第で解決できそうじゃない?

176:デフォルトの名無しさん
23/04/02 17:42:15.70 m9htbNRo.net
>>175
上手く行かないって報告がある。
そのうちAIではなく人間がハードコーディングした「アルゴリズム」で解決されるかも。

177:デフォルトの名無しさん
23/04/02 17:46:31.87 m9htbNRo.net
画像生成系AIも、絵心のある人間が修正したものを「AI作」として
ネットで紹介されていたりするみたいだ。
AIが生成したままのものは、結構間違いが入っていることが有る。

178:デフォルトの名無しさん
23/04/02 17:49:32.53 m9htbNRo.net
画像生成系AIは、本当にAIだけで生成したのかファクトチェックが必要だと思う。
アメリカ人は商売のために嘘を付く人が多いから。

179:デフォルトの名無しさん
23/04/02 17:50:00.11 JiKrejmU.net
>>176
設定すればできそうだけど、そのままだとGPT4でもじゃんけんできないな
しりとりは普通にできたけども

180:デフォルトの名無しさん
23/04/02 17:52:54.18 JiKrejmU.net
>>176
しりとりも続けたら微妙に間違ってたわ
でも両方ともプロンプトでなんとかなりそうな気はするけども

181:デフォルトの名無しさん
23/04/02 20:15:34.02 Lj3tNi9G.net
>>166
それって明らかに将棋AIを使えるのは
将棋が出来る人の上級者だけってことになってるけどw
一般の将棋指しに将棋AIを与えても
強くなれないよ

182:デフォルトの名無しさん
23/04/03 00:22:57.68 F+wcgPcD.net
>>180
なんとかならないだろうよ。

183:デフォルトの名無しさん
23/04/03 07:22:35.14 8dVWELcs.net
>>182
一度こちらの言葉をひらがなに変換してから答えを考えるように命令すると間違えることはない

184:デフォルトの名無しさん
23/04/03 11:06:03.22 8dVWELcs.net
でも最後に「ん」がつく言葉を言わせないの難しいな

185:デフォルトの名無しさん
23/04/03 13:53:45.54 CXo6B/ma.net
>>183
ほんまかいな。

186:デフォルトの名無しさん
23/04/03 13:57:51.66 CXo6B/ma.net
しりとりができない、と噂が立ったから、人間が「アルゴリズム」を入れただけ疑惑。

187:デフォルトの名無しさん
23/04/03 14:27:25.44 8dVWELcs.net
結構頑張って命令出しても20個くらい続けさせると1個くらい「ん」で終わる単語出してくる
それ以外は問題なくしりとりはできる
たぶん英語圏のしりとりに「ん」に該当するルールがないのが原因な気がする

188:デフォルトの名無しさん
23/04/03 14:32:51.78 CXo6B/ma.net
ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を
学習で得ることは難しいはず。
間違うことがあることからしてもChatGPTがそこまでのものであるとは思えない。
今まで間違っていたのに、勝手に学習して間違わなくなる、なんてことは
有りそうに無い。


次ページ
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

369日前に更新/98 KB
担当:undef