便利だが信用は出来ない。それが現状のGAIであろう。OpenAIがChatGPTで錬成されたソースコードの誤りをチェックするGAIを開発したそうである。正しいかどうかの検証の手間が省けるのは助かるだろうが、だったら最初からちゃんとしたコードを吐き出せば済む話の様にも思える。ただ、新たに作るよりもアラを探す方がやりやすいと云った傾向は、AIにも有るのかも知れない。これでシステム開発の生産性が爆上がりするのであれば万事目出度しなのだが、「仕様が自然言語で完璧に矛盾無く記述されている」事が前提となっている限りは、多分無理だろう。試行錯誤が必要になるプロトタイプであれば猶更である。ロジックに問題が無くても処理量が多過ぎて朝までに終わらない、と云った実行環境に起因する不具合も有り得る。そこら辺もまるっと面倒を見てくれる水準にまでGAIが進化したら全幅の信頼を寄せても構わないのだろうが、仕様がブラックボックスになるのも少々怖いのである。