ਹੁਣ ਜਦੋਂ AI ਹਰ ਪਾਸੇ ਹੈ, ਸਮਾਰਟ ਟੀਮਾਂ ਕੀ ਟਰੈਕ ਕਰ ਰਹੀਆਂ ਹਨ?
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਨੂੰ ਸਿਰਫ਼ ਇਸਦੀ ਮੌਜੂਦਗੀ ਨਾਲ ਮਾਪਣ ਦਾ ਦੌਰ ਖਤਮ ਹੋ ਗਿਆ ਹੈ। ਸਮਾਰਟ ਟੀਮਾਂ ਹੁਣ ਜਨਰੇਟਿਵ ਟੂਲਸ ਦੇ ਸ਼ੌਕ ਤੋਂ ਅੱਗੇ ਨਿਕਲ ਚੁੱਕੀਆਂ ਹਨ ਅਤੇ ਇੱਕ ਬਹੁਤ ਜ਼ਿਆਦਾ ਮੁਸ਼ਕਲ ਮੈਟ੍ਰਿਕ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰ ਰਹੀਆਂ ਹਨ। ਉਹ ਇਸ ਗੱਲ ਦਾ ਪਤਾ ਲਗਾ ਰਹੀਆਂ ਹਨ ਕਿ ਇੱਕ ਮਾਡਲ ਜੋ ਜਾਣਨ ਦਾ ਦਾਅਵਾ ਕਰਦਾ ਹੈ ਅਤੇ ਜੋ ਉਹ ਅਸਲ ਵਿੱਚ ਸਹੀ ਢੰਗ ਨਾਲ ਪੈਦਾ ਕਰਦਾ ਹੈ, ਉਹਨਾਂ ਵਿਚਕਾਰ ਕਿੰਨਾ ਅੰਤਰ ਹੈ। ਇਹ ਅਪਣਾਉਣ ਤੋਂ ਤਸਦੀਕ ਵੱਲ ਵਧਣ ਦਾ ਸਮਾਂ ਹੈ। ਹੁਣ ਇਹ ਕਹਿਣਾ ਕਾਫ਼ੀ ਨਹੀਂ ਹੈ ਕਿ ਕੋਈ ਵਿਭਾਗ large language models ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਅਸਲ ਸਵਾਲ ਇਹ ਹੈ ਕਿ ਉਹ ਮਾਡਲ ਕਿੰਨੀ ਵਾਰ ਅਜਿਹੇ ਤਰੀਕਿਆਂ ਨਾਲ ਫੇਲ ਹੁੰਦੇ ਹਨ ਜੋ ਆਮ ਲੋਕਾਂ ਨੂੰ ਨਜ਼ਰ ਨਹੀਂ ਆਉਂਦੇ। ਉੱਚ ਪ੍ਰਦਰਸ਼ਨ ਕਰਨ ਵਾਲੀਆਂ ਸੰਸਥਾਵਾਂ ਹੁਣ ਆਪਣੀ ਪੂਰੀ ਰਣਨੀਤੀ ਨੂੰ measurement uncertainty ‘ਤੇ ਕੇਂਦਰਿਤ ਕਰ ਰਹੀਆਂ ਹਨ। ਉਹ ਹਰ ਆਉਟਪੁੱਟ ਨੂੰ ਤੱਥਾਂ ਦੇ ਬਿਆਨ ਦੀ ਬਜਾਏ ਇੱਕ ਸੰਭਾਵੀ ਅੰਦਾਜ਼ਾ ਮੰਨਦੀਆਂ ਹਨ। ਨਜ਼ਰੀਏ ਵਿੱਚ ਇਹ ਬਦਲਾਅ ਕਾਰਪੋਰੇਟ ਪਲੇਬੁੱਕ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਬਦਲਣ ਲਈ ਮਜਬੂਰ ਕਰ ਰਿਹਾ ਹੈ। ਜੋ ਟੀਮਾਂ ਇਸ ਬਦਲਾਅ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀਆਂ ਹਨ, ਉਹ technical debt ਅਤੇ ਅਜਿਹੇ hallucinated ਡੇਟਾ ਵਿੱਚ ਫਸ ਰਹੀਆਂ ਹਨ ਜੋ ਉੱਪਰੋਂ ਤਾਂ ਸਹੀ ਲੱਗਦਾ ਹੈ ਪਰ ਦਬਾਅ ਵਿੱਚ ਫੇਲ ਹੋ ਜਾਂਦਾ ਹੈ। ਹੁਣ ਧਿਆਨ ਜਨਰੇਸ਼ਨ ਦੀ ਗਤੀ ਤੋਂ ਹਟ ਕੇ ਨਤੀਜੇ ਦੀ ਭਰੋਸੇਯੋਗਤਾ ‘ਤੇ ਆ ਗਿਆ ਹੈ।
ਮਸ਼ੀਨ ਵਿੱਚ ਮੌਜੂਦ ਭੇਤ ਨੂੰ ਮਾਪਣਾ
Measurement uncertainty ਉਹ ਅੰਕੜਾਤਮਕ ਰੇਂਜ ਹੈ ਜਿਸ ਦੇ ਅੰਦਰ ਕਿਸੇ ਆਉਟਪੁੱਟ ਦਾ ਅਸਲ ਮੁੱਲ ਹੁੰਦਾ ਹੈ। ਰਵਾਇਤੀ ਸਾਫਟਵੇਅਰ ਦੀ ਦੁਨੀਆ ਵਿੱਚ, ਦੋ ਅਤੇ ਦੋ ਦਾ ਜੋੜ ਹਮੇਸ਼ਾ ਚਾਰ ਹੁੰਦਾ ਹੈ। ਆਧੁਨਿਕ AI ਦੀ ਦੁਨੀਆ ਵਿੱਚ, ਨਤੀਜਾ ਚਾਰ ਹੋ ਸਕਦਾ ਹੈ, ਜਾਂ ਇਹ ਚਾਰ ਨੰਬਰ ਦੇ ਇਤਿਹਾਸ ਬਾਰੇ ਇੱਕ ਲੰਮਾ ਲੇਖ ਹੋ ਸਕਦਾ ਹੈ ਜੋ ਇਹ ਦੱਸਦਾ ਹੈ ਕਿ ਇਹ ਕਈ ਵਾਰ ਪੰਜ ਵੀ ਹੁੰਦਾ ਹੈ। ਸਮਾਰਟ ਟੀਮਾਂ ਹੁਣ ਹਰ ਇੱਕ ਜਵਾਬ ਨੂੰ confidence score ਦੇਣ ਲਈ ਵਿਸ਼ੇਸ਼ ਸਾਫਟਵੇਅਰ ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੀਆਂ ਹਨ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ ਘੱਟ confidence score ਦੇ ਨਾਲ ਕੋਈ ਕਾਨੂੰਨੀ ਸਾਰ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਤਾਂ ਸਿਸਟਮ ਇਸਨੂੰ ਤੁਰੰਤ ਮਨੁੱਖੀ ਸਮੀਖਿਆ ਲਈ ਫਲੈਗ ਕਰ ਦਿੰਦਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਗਲਤੀਆਂ ਫੜਨ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਮਾਡਲ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਸਮਝਣ ਬਾਰੇ ਹੈ। ਜਦੋਂ ਤੁਸੀਂ ਜਾਣਦੇ ਹੋ ਕਿ ਕੋਈ ਟੂਲ ਕਿੱਥੇ ਫੇਲ ਹੋ ਸਕਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ ਉਹਨਾਂ ਖਾਸ ਬਿੰਦੂਆਂ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਸੁਰੱਖਿਆ ਕਵਚ ਬਣਾ ਸਕਦੇ ਹੋ। ਜ਼ਿਆਦਾਤਰ ਸ਼ੁਰੂਆਤ ਕਰਨ ਵਾਲੇ ਸੋਚਦੇ ਹਨ ਕਿ AI ਜਾਂ ਤਾਂ ਸਹੀ ਹੈ ਜਾਂ ਗਲਤ। ਮਾਹਰ ਜਾਣਦੇ ਹਨ ਕਿ AI ਲਗਾਤਾਰ ਸੰਭਾਵਨਾ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਰਹਿੰਦਾ ਹੈ। ਉਹ ਸਧਾਰਨ ਪਲੇਟਫਾਰਮ ਰਿਪੋਰਟਿੰਗ ਤੋਂ ਅੱਗੇ ਵਧ ਰਹੇ ਹਨ ਜੋ ਸਿਰਫ uptime ਜਾਂ token counts ਦਿਖਾਉਂਦੀ ਹੈ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਵੱਖ-ਵੱਖ ਕਿਸਮਾਂ ਦੀਆਂ queries ਵਿੱਚ ਗਲਤੀਆਂ ਦੀ ਵੰਡ ਨੂੰ ਦੇਖ ਰਹੇ ਹਨ। ਉਹ ਜਾਣਨਾ ਚਾਹੁੰਦੇ ਹਨ ਕਿ ਕੀ ਮਾਡਲ ਰਚਨਾਤਮਕ ਲਿਖਤ ਵਿੱਚ ਬਿਹਤਰ ਹੁੰਦੇ ਹੋਏ ਗਣਿਤ ਵਿੱਚ ਕਮਜ਼ੋਰ ਹੋ ਰਿਹਾ ਹੈ।
ਆਮ ਗਲਤਫਹਿਮੀਆਂ ਇਹ ਸੁਝਾਅ ਦਿੰਦੀਆਂ ਹਨ ਕਿ ਇੱਕ ਵੱਡਾ ਮਾਡਲ ਹਮੇਸ਼ਾ ਘੱਟ ਅਨਿਸ਼ਚਿਤਤਾ ਵੱਲ ਲੈ ਜਾਂਦਾ ਹੈ। ਇਹ ਅਕਸਰ ਗਲਤ ਹੁੰਦਾ ਹੈ। ਵੱਡੇ ਮਾਡਲ ਕਈ ਵਾਰ ਆਪਣੀਆਂ hallucinations ਵਿੱਚ ਵਧੇਰੇ ਭਰੋਸੇਮੰਦ ਹੋ ਸਕਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਉਹਨਾਂ ਨੂੰ ਲੱਭਣਾ ਔਖਾ ਹੋ ਜਾਂਦਾ ਹੈ। ਟੀਮਾਂ ਹੁਣ calibration ਨਾਮ ਦੀ ਚੀਜ਼ ਨੂੰ ਟਰੈਕ ਕਰ ਰਹੀਆਂ ਹਨ। ਇੱਕ ਚੰਗੀ ਤਰ੍ਹਾਂ calibrated ਮਾਡਲ ਜਾਣਦਾ ਹੈ ਕਿ ਜਦੋਂ ਉਸਨੂੰ ਜਵਾਬ ਨਹੀਂ ਪਤਾ ਹੁੰਦਾ। ਜੇਕਰ ਕੋਈ ਮਾਡਲ ਕਹਿੰਦਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਤੱਥ ਬਾਰੇ 90 ਪ੍ਰਤੀਸ਼ਤ ਨਿਸ਼ਚਿਤ ਹੈ, ਤਾਂ ਉਸਨੂੰ ਬਿਲਕੁਲ 90 ਪ੍ਰਤੀਸ਼ਤ ਸਮਾਂ ਸਹੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਜੇਕਰ ਉਹ ਸਿਰਫ 60 ਪ੍ਰਤੀਸ਼ਤ ਸਮਾਂ ਸਹੀ ਹੈ, ਤਾਂ ਉਹ ਬਹੁਤ ਜ਼ਿਆਦਾ ਆਤਮ-ਵਿਸ਼ਵਾਸੀ ਅਤੇ ਖਤਰਨਾਕ ਹੈ। ਇਹ ਬੁਨਿਆਦੀ AI ਵਰਤੋਂ ਦੀ ਸਤ੍ਹਾ ਦੇ ਹੇਠਾਂ ਇੱਕ ਦਿਲਚਸਪ ਪਰਤ ਹੈ। ਇਸ ਲਈ ਸਿਰਫ਼ ਟੈਕਸਟ ਪੜ੍ਹਨ ਦੀ ਬਜਾਏ ਆਉਟਪੁੱਟ ਦੇ ਗਣਿਤ ਵਿੱਚ ਡੂੰਘਾਈ ਨਾਲ ਜਾਣ ਦੀ ਲੋੜ ਹੈ। ਕੰਪਨੀਆਂ ਹੁਣ ਖਾਸ ਤੌਰ ‘ਤੇ ਇਸ drift ਨੂੰ ਮਾਪਣ ਲਈ ਡੇਟਾ ਸਾਇੰਟਿਸਟਾਂ ਨੂੰ ਨਿਯੁਕਤ ਕਰ ਰਹੀਆਂ ਹਨ। ਉਹ ਇਹ ਦੇਖ ਰਹੇ ਹਨ ਕਿ ਮਾਡਲ ਅਸਪਸ਼ਟ prompts ਦੀ ਵਿਆਖਿਆ ਕਿਵੇਂ ਕਰਦਾ ਹੈ। ਅਨਿਸ਼ਚਿਤਤਾ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰਕੇ, ਉਹ ਇਹ ਅੰਦਾਜ਼ਾ ਲਗਾ ਸਕਦੇ ਹਨ ਕਿ ਸਿਸਟਮ ਕਦੋਂ ਟੁੱਟਣ ਵਾਲਾ ਹੈ, ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਕਿ ਇਹ ਕਿਸੇ ਗਾਹਕ ਲਈ ਸਮੱਸਿਆ ਪੈਦਾ ਕਰੇ। ਇਹ ਕਿਰਿਆਸ਼ੀਲ ਪਹੁੰਚ ਕੰਪਨੀ ਦੀ ਸਾਖ ਨੂੰ ਖਤਰੇ ਵਿੱਚ ਪਾਏ ਬਿਨਾਂ ਇੱਕ ਪੇਸ਼ੇਵਰ ਵਾਤਾਵਰਣ ਵਿੱਚ ਇਹਨਾਂ ਟੂਲਸ ਨੂੰ ਸਕੇਲ ਕਰਨ ਦਾ ਇੱਕੋ ਇੱਕ ਤਰੀਕਾ ਹੈ।
ਵਿਸ਼ਵਵਿਆਪੀ ਵਿਸ਼ਵਾਸ ਦਾ ਸੰਕਟ
ਸਖ਼ਤ ਮਾਪ ਵੱਲ ਵਧਣਾ ਖਲਾਅ ਵਿੱਚ ਨਹੀਂ ਹੋ ਰਿਹਾ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹੇ ਵਿਸ਼ਵਵਿਆਪੀ ਵਾਤਾਵਰਣ ਦਾ ਜਵਾਬ ਹੈ ਜਿੱਥੇ ਡੇਟਾ ਦੀ ਇਕਸਾਰਤਾ ਇੱਕ ਕਾਨੂੰਨੀ ਲੋੜ ਬਣ ਰਹੀ ਹੈ। ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਵਿੱਚ, 2026 ਦੇ AI Act ਨੇ ਇੱਕ ਮਿਸਾਲ ਕਾਇਮ ਕੀਤੀ ਹੈ ਕਿ ਉੱਚ-ਜੋਖਮ ਵਾਲੇ ਸਿਸਟਮਾਂ ਦੀ ਨਿਗਰਾਨੀ ਕਿਵੇਂ ਕੀਤੀ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ। ਟੋਕੀਓ, ਲੰਡਨ ਅਤੇ ਸੈਨ ਫਰਾਂਸਿਸਕੋ ਦੀਆਂ ਕੰਪਨੀਆਂ ਨੂੰ ਅਹਿਸਾਸ ਹੋ ਰਿਹਾ ਹੈ ਕਿ ਉਹ ਬਲੈਕ ਬਾਕਸ ਦੇ ਬਹਾਨੇ ਪਿੱਛੇ ਨਹੀਂ ਲੁਕ ਸਕਦੀਆਂ। ਜੇਕਰ ਕੋਈ ਆਟੋਮੇਟਿਡ ਸਿਸਟਮ ਕਰਜ਼ੇ ਤੋਂ ਇਨਕਾਰ ਕਰਦਾ ਹੈ ਜਾਂ ਨੌਕਰੀ ਦੀ ਅਰਜ਼ੀ ਨੂੰ ਫਿਲਟਰ ਕਰਦਾ ਹੈ, ਤਾਂ ਕੰਪਨੀ ਨੂੰ ਗਲਤੀ ਦੇ ਮਾਰਜਿਨ ਦੀ ਵਿਆਖਿਆ ਕਰਨ ਦੇ ਯੋਗ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਸ ਨੇ ਪਾਰਦਰਸ਼ਤਾ ਲਈ ਇੱਕ ਨਵਾਂ ਗਲੋਬਲ ਸਟੈਂਡਰਡ ਬਣਾਇਆ ਹੈ। ਸਪਲਾਈ ਚੇਨ ਜੋ ਆਟੋਮੇਟਿਡ ਲੌਜਿਸਟਿਕਸ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੀਆਂ ਹਨ, ਉਹ ਖਾਸ ਤੌਰ ‘ਤੇ ਇਹਨਾਂ ਮੈਟ੍ਰਿਕਸ ਪ੍ਰਤੀ ਸੰਵੇਦਨਸ਼ੀਲ ਹਨ। ਇੱਕ ਪ੍ਰਡਿਕਟਿਵ ਮਾਡਲ ਵਿੱਚ ਇੱਕ ਛੋਟੀ ਜਿਹੀ ਗਲਤੀ ਲੱਖਾਂ ਡਾਲਰਾਂ ਦੇ ਬਾਲਣ ਦੀ ਬਰਬਾਦੀ ਜਾਂ ਇਨਵੈਂਟਰੀ ਦੇ ਨੁਕਸਾਨ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ। ਦਾਅ ਹੁਣ ਸਿਰਫ਼ ਇੱਕ ਚੈਟ ਵਿੰਡੋ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਹਨ। ਉਹ ਭੌਤਿਕ ਅਤੇ ਵਿੱਤੀ ਹਨ। ਇਹ ਗਲੋਬਲ ਦਬਾਅ ਸਾਫਟਵੇਅਰ ਪ੍ਰਦਾਤਾਵਾਂ ਨੂੰ ਆਪਣੇ ਸਿਸਟਮ ਖੋਲ੍ਹਣ ਅਤੇ ਆਪਣੇ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਗਾਹਕਾਂ ਨੂੰ ਵਧੇਰੇ granular ਡੇਟਾ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਮਜਬੂਰ ਕਰ ਰਿਹਾ ਹੈ। ਉਹ ਹੁਣ ਸਿਰਫ਼ ਇੱਕ ਸਧਾਰਨ ਇੰਟਰਫੇਸ ਪ੍ਰਦਾਨ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਉਹਨਾਂ ਨੂੰ ਕੱਚਾ confidence ਡੇਟਾ ਪ੍ਰਦਾਨ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਟੀਮਾਂ ਨੂੰ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ।
ਇਸ ਬਦਲਾਅ ਦਾ ਪ੍ਰਭਾਵ ਉਹਨਾਂ ਸੈਕਟਰਾਂ ਵਿੱਚ ਸਭ ਤੋਂ ਵੱਧ ਮਹਿਸੂਸ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਉੱਚ ਸ਼ੁੱਧਤਾ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਹੈਲਥਕੇਅਰ ਅਤੇ ਵਿੱਤ ਇਹਨਾਂ ਨਵੇਂ ਰਿਪੋਰਟਿੰਗ ਮਾਪਦੰਡਾਂ ਨੂੰ ਵਿਕਸਤ ਕਰਨ ਵਿੱਚ ਅਗਵਾਈ ਕਰ ਰਹੇ ਹਨ। ਉਹ ਇੱਕ ਆਮ-ਉਦੇਸ਼ ਵਾਲੇ ਸਹਾਇਕ ਦੇ ਵਿਚਾਰ ਤੋਂ ਦੂਰ ਹੋ ਕੇ ਤੰਗ, ਮਾਪਣਯੋਗ ਟੀਚਿਆਂ ਵਾਲੇ ਵਿਸ਼ੇਸ਼ ਏਜੰਟਾਂ ਵੱਲ ਵਧ ਰਹੇ ਹਨ। ਇਹ ਅਨਿਸ਼ਚਿਤਤਾ ਲਈ ਸਤਹ ਖੇਤਰ ਨੂੰ ਘਟਾਉਂਦਾ ਹੈ ਅਤੇ ਸਮੇਂ ਦੇ ਨਾਲ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਟਰੈਕ ਕਰਨਾ ਆਸਾਨ ਬਣਾਉਂਦਾ ਹੈ। ਇਹ ਵੱਧ ਰਹੀ ਸਮਝ ਹੈ ਕਿ ਇੱਕ AI ਸਿਸਟਮ ਦਾ ਸਭ ਤੋਂ ਕੀਮਤੀ ਹਿੱਸਾ ਮਾਡਲ ਖੁਦ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਇਸਦੀ ਤਸਦੀਕ ਕਰਨ ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਡੇਟਾ ਹੈ। ਕੰਪਨੀਆਂ