本日の何だか(2021/11/12)

出社して、長時間の会議その他で疲弊したので、簡単に呟いた内容を基にメモを。前に書いたことかもしれないが、その辺は一つおおらかに(汗)。

 

AIとやらを用いた契約審査の道具は、依存度が高くなりすぎると、使う側がモノを考えなくなって、考える能力が低下するのではないかという懸念がある気がする。そういう懸念を前提にしたと思われる呟きに接した。かつてその種のことを述べたときに、冷笑的な反応を受けたことを思うと、こちらの懸念が杞憂ではなかったのではないかという気がしないでもない。

 

この点について、自分でできないことをその手のものにやらせてはいけないという形で定式化された言説にも接したが、その定式を前提としても、一旦はその定式を充足していたとしても、その後の使用継続により能力が退化して(使わない能力が退化するのはある意味でヒトとしては正常なのだろう)、その定式を充足しなくなる危険も否定できない。もちろん、かの道具にあらゆる契約審査を丸投げできればその種の問題を気にする必要もないのかもしれないが、現状そこまでのことは望めないうえに、契約書の審査で培う能力が一般の法律相談でも活きていることを考えると*1、仮にそういうことが出来たとしても、依存して良いのかは慎重な検討が必要だろう。

 

そんなこんなを考えると、ああいうものを使うとするのであれば、結局のところ、上記の懸念をふまえても、なお費用対効果の面で勝るから(その計算の適否はさておき)、ということになるのだろう。その種の議論がいつどういうところで成り立つのかは僕にはわからないが*2

*1:その種の能力を別途トレーニングして、それに費用が掛かるとなれば、マッチポンプという気がしてならない

*2:その種の議論がこちらの関与している範囲で出てきたら、その計算に納得できない限りで全力で止める予定。そうするのがこちらの務めと考えるので。アリバイ作り的に中身の伴わないDXとやらに付き合うために導入するくらいなら止めるべきと考える。