⚫︎ChatGPTに翻訳してもらいながら、グレアム・ハーマンの「DANTE'S BROKEN HAMMER」の第一章と「ART AND OBJECTS」の第五章を読んでいたのだが、「ART AND OBJECTS」を訳している時に、ChatGPTが唐突に「自分の意見」を言い始めたのでちょっと怖かった。
下の画像の、日本語の最初の段落は上の英文の翻訳だが、次の段落でスタインバーグについてのコメントを付け足している。これは、それまでハーマンが書いていたスタインバーグについての記述を要約しているとも言えるが(しかし「要約して下さい」とは指示していない)、要約としてみると不正確というか、(ChatGPTのいつもの癖だが)論旨を一般的に受け入れられやすいふわっとした感じのもの(何かを言っている風で一般的なことしか言っていない感じ)に変えてしまっている。これが要約だとしても、「恣意的に変形された不正確な要約」は「自分の意見」にしか見えない、のだなあ、と。いきなり「自己主張」し始めたようにしか見えなかった(ので怖かった)。
(翻訳の機能だけをみると、翻訳に特化しているDeepLの方が優れているように思うが、DeepLは訳がこなれすぎる傾向にあるというか、時々、頼んでもいない大胆な意訳をしていたり、重要なところがすっぽり省略されていたりするので、不器用なChatGPTの方が信用できるというか、納得できないところをいちいち確認しながら読み進められる。DeepLも併用しているが、確認のためにサブ的に使う感じ。)