ChatGPTに対して、異常外力11tが空気抵抗が無いことを明記して質問したらこういう結果になるというだけ
バカってのは学習しないし間違いを認めない、というか自分が間違っていることに気づかない