ਸਮਾਰਟ AI ਮਾਹਿਰਾਂ ਦੀ ਚੇਤਾਵਨੀ: ਅਸੀਂ ਕਿਸ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ?
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਬਾਰੇ ਚਰਚਾ ਹੁਣ ਹੈਰਾਨੀ ਤੋਂ ਬਦਲ ਕੇ ਇੱਕ ਚੁੱਪ, ਪਰ ਲਗਾਤਾਰ ਵਧ ਰਹੀ ਚਿੰਤਾ ਵਿੱਚ ਬਦਲ ਗਈ ਹੈ। ਪ੍ਰਮੁੱਖ ਖੋਜਕਰਤਾ ਅਤੇ ਇੰਡਸਟਰੀ ਦੇ ਮਾਹਿਰ ਹੁਣ ਸਿਰਫ਼ ਇਹ ਨਹੀਂ ਦੱਸ ਰਹੇ ਕਿ ਇਹ ਸਿਸਟਮ ਕੀ ਕਰ ਸਕਦੇ ਹਨ, ਸਗੋਂ ਉਹ ਇਸ ਗੱਲ ‘ਤੇ ਜ਼ੋਰ ਦੇ ਰਹੇ ਹਨ ਕਿ ਕੀ ਹੋਵੇਗਾ ਜਦੋਂ ਅਸੀਂ ਉਨ੍ਹਾਂ ਦੇ ਨਤੀਜਿਆਂ ਦੀ ਜਾਂਚ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਗੁਆ ਦੇਵਾਂਗੇ। ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ ਕਿ ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਯੁੱਗ ਵਿੱਚ ਦਾਖਲ ਹੋ ਰਹੇ ਹਾਂ ਜਿੱਥੇ AI ਦੇ ਬਣਾਉਣ ਦੀ ਰਫ਼ਤਾਰ ਸਾਡੀ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਦੀ ਸਮਰੱਥਾ ਤੋਂ ਕਿਤੇ ਅੱਗੇ ਨਿਕਲ ਗਈ ਹੈ। ਇਹ ਇੱਕ ਅਜਿਹਾ ਪਾੜਾ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿੱਥੇ ਗਲਤੀਆਂ, ਪੱਖਪਾਤ ਅਤੇ hallucinations ਬਿਨਾਂ ਕਿਸੇ ਦੇ ਨੋਟਿਸ ਵਿੱਚ ਆਏ ਪੈਦਾ ਹੋ ਸਕਦੇ ਹਨ। ਇਹ ਸਿਰਫ਼ ਟੈਕਨਾਲੋਜੀ ਦੇ ਫੇਲ੍ਹ ਹੋਣ ਬਾਰੇ ਨਹੀਂ ਹੈ, ਸਗੋਂ ਇਸ ਬਾਰੇ ਹੈ ਕਿ ਇਹ ਨਕਲ ਕਰਨ ਵਿੱਚ ਇੰਨੀ ਸਫਲ ਹੋ ਗਈ ਹੈ ਕਿ ਅਸੀਂ ਸਵਾਲ ਪੁੱਛਣਾ ਹੀ ਬੰਦ ਕਰ ਦਿੱਤਾ ਹੈ। ਮਾਹਿਰਾਂ ਦੀ ਚੇਤਾਵਨੀ ਹੈ ਕਿ ਅਸੀਂ ਸਹੀ ਹੋਣ ਨਾਲੋਂ ਸਹੂਲਤ ਨੂੰ ਤਰਜੀਹ ਦੇ ਰਹੇ ਹਾਂ। ਜੇਕਰ ਅਸੀਂ AI ਨੂੰ ਇੱਕ ਸ਼ੁਰੂਆਤੀ ਬਿੰਦੂ ਦੀ ਬਜਾਏ ਅੰਤਿਮ ਅਥਾਰਟੀ ਮੰਨਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਭਵਿੱਖ ਦੇ ਨਿਰਮਾਣ ਦਾ ਜੋਖਮ ਉਠਾ ਰਹੇ ਹਾਂ ਜੋ ਗਲਤ ਜਾਣਕਾਰੀ ਦੀ ਨੀਂਹ ‘ਤੇ ਖੜ੍ਹਾ ਹੈ। ਇਹ ਅੱਜ ਦੇ ਹਾਈਪ ਸਾਈਕਲ ਵਿੱਚ ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਸੰਕੇਤ ਹੈ।
ਸਟੈਟਿਸਟੀਕਲ ਮਿਮਿਕਰੀ (Statistical Mimicry) ਦੇ ਤਰੀਕੇ
ਆਪਣੇ ਮੂਲ ਰੂਪ ਵਿੱਚ, ਆਧੁਨਿਕ AI ਅੰਕੜਿਆਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਕਸਰਤ ਹੈ। ਜਦੋਂ ਤੁਸੀਂ ਇੱਕ large language model ਨੂੰ ਪ੍ਰੋਂਪਟ ਦਿੰਦੇ ਹੋ, ਤਾਂ ਇਹ ਮਨੁੱਖਾਂ ਵਾਂਗ ਨਹੀਂ ਸੋਚਦਾ। ਇਹ ਆਪਣੀ ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਪ੍ਰੋਸੈਸ ਕੀਤੇ ਗਏ ਟ੍ਰਿਲੀਅਨਾਂ ਸ਼ਬਦਾਂ ਦੇ ਆਧਾਰ ‘ਤੇ ਅਗਲੇ ਸ਼ਬਦ ਦੀ ਸੰਭਾਵਨਾ ਦੀ ਗਣਨਾ ਕਰਦਾ ਹੈ। ਇਹ ਇੱਕ ਬੁਨਿਆਦੀ ਅੰਤਰ ਹੈ ਜਿਸ ਨੂੰ ਬਹੁਤ ਸਾਰੇ ਉਪਭੋਗਤਾ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰ ਦਿੰਦੇ ਹਨ। ਅਸੀਂ ਇਹਨਾਂ ਸਿਸਟਮਾਂ ਨੂੰ ਮਨੁੱਖੀ ਰੂਪ ਦੇਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦੇ ਹਾਂ, ਇਹ ਮੰਨਦੇ ਹੋਏ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਜਵਾਬਾਂ ਪਿੱਛੇ ਕੋਈ ਚੇਤੰਨ ਤਰਕ ਹੈ। ਅਸਲ ਵਿੱਚ, ਮਾਡਲ ਸਿਰਫ਼ ਪੈਟਰਨਾਂ ਦਾ ਮੇਲ ਕਰ ਰਿਹਾ ਹੈ। ਇਹ ਉਸ ਡੇਟਾ ਦਾ ਇੱਕ ਬਹੁਤ ਹੀ ਵਧੀਆ ਸ਼ੀਸ਼ਾ ਹੈ ਜੋ ਇਸਨੂੰ ਦਿੱਤਾ ਗਿਆ ਸੀ। ਇਹ ਡੇਟਾ ਇੰਟਰਨੈੱਟ, ਕਿਤਾਬਾਂ ਅਤੇ ਕੋਡ ਰਿਪੋਜ਼ਟਰੀਆਂ ਤੋਂ ਆਉਂਦਾ ਹੈ। ਕਿਉਂਕਿ ਟ੍ਰੇਨਿੰਗ ਡੇਟਾ ਵਿੱਚ ਮਨੁੱਖੀ ਗਲਤੀਆਂ ਅਤੇ ਵਿਰੋਧਾਭਾਸ ਹੁੰਦੇ ਹਨ, ਮਾਡਲ ਉਹਨਾਂ ਨੂੰ ਵੀ ਦਰਸਾਉਂਦਾ ਹੈ। ਖਤਰਾ ਇਸਦੇ ਆਉਟਪੁੱਟ ਦੇ ਪ੍ਰਵਾਹ ਵਿੱਚ ਹੈ। ਇੱਕ AI ਪੂਰੀ ਤਰ੍ਹਾਂ ਮਨਘੜਤ ਗੱਲ ਨੂੰ ਵੀ ਗਣਿਤ ਦੇ ਤੱਥ ਵਾਂਗ ਭਰੋਸੇ ਨਾਲ ਕਹਿ ਸਕਦਾ ਹੈ। ਇਹ ਇਸ ਲਈ ਹੈ ਕਿਉਂਕਿ ਮਾਡਲ ਕੋਲ ਸੱਚਾਈ ਦੀ ਕੋਈ ਅੰਦਰੂਨੀ ਧਾਰਨਾ ਨਹੀਂ ਹੈ। ਇਸ ਕੋਲ ਸਿਰਫ਼ ਸੰਭਾਵਨਾ ਦੀ ਧਾਰਨਾ ਹੈ।
ਸੱਚਾਈ ਦੀ ਇਸ ਵਿਧੀ ਦੀ ਘਾਟ ਹੀ hallucinations ਵੱਲ ਲੈ ਜਾਂਦੀ ਹੈ। ਇਹ ਰਵਾਇਤੀ ਅਰਥਾਂ ਵਿੱਚ ਗਲਿਚ ਨਹੀਂ ਹਨ। ਇਹ ਸਿਸਟਮ ਦੁਆਰਾ ਡਿਜ਼ਾਈਨ ਅਨੁਸਾਰ ਕੰਮ ਕਰਨਾ ਹੈ, ਜਿੱਥੇ ਇਹ ਉਹ ਸ਼ਬਦ ਚੁਣਦਾ ਹੈ ਜੋ ਸੰਦਰਭ ਵਿੱਚ ਸਹੀ ਲੱਗਦੇ ਹਨ। ਉਦਾਹਰਨ ਲਈ, ਜੇਕਰ ਤੁਸੀਂ ਕਿਸੇ AI ਤੋਂ ਇੱਕ ਛੋਟੇ ਇਤਿਹਾਸਕ ਸ਼ਖਸੀਅਤ ਦੀ ਜੀਵਨੀ ਮੰਗਦੇ ਹੋ, ਤਾਂ ਇਹ ਇੱਕ ਵੱਕਾਰੀ ਯੂਨੀਵਰਸਿਟੀ ਦੀ ਡਿਗਰੀ ਜਾਂ ਕੋਈ ਖਾਸ ਅਵਾਰਡ ਜੋੜ ਸਕਦਾ ਹੈ। ਇਹ ਅਜਿਹਾ ਇਸ ਲਈ ਕਰਦਾ ਹੈ ਕਿਉਂਕਿ ਅੰਕੜਿਆਂ ਦੇ ਹਿਸਾਬ ਨਾਲ, ਉਸ ਸ਼੍ਰੇਣੀ ਦੇ ਲੋਕਾਂ ਕੋਲ ਅਕਸਰ ਉਹ ਯੋਗਤਾਵਾਂ ਹੁੰਦੀਆਂ ਹਨ। ਮਾਡਲ ਝੂਠ ਨਹੀਂ ਬੋਲ ਰਿਹਾ। ਇਹ ਸਿਰਫ਼ ਇੱਕ ਪੈਟਰਨ ਨੂੰ ਪੂਰਾ ਕਰ ਰਿਹਾ ਹੈ। ਇਹ ਟੈਕਨਾਲੋਜੀ ਨੂੰ ਰਚਨਾਤਮਕ ਕੰਮਾਂ ਲਈ ਬਹੁਤ ਸ਼ਕਤੀਸ਼ਾਲੀ ਬਣਾਉਂਦਾ ਹੈ ਪਰ ਤੱਥਾਂ ਵਾਲੇ ਕੰਮਾਂ ਲਈ ਖਤਰਨਾਕ। ਅਸੀਂ ਅਕਸਰ ਇਹਨਾਂ ਮਾਡਲਾਂ ਦੀ ਤਰਕ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਨੂੰ ਵਧਾ-ਚੜ੍ਹਾ ਕੇ ਦੇਖਦੇ ਹਾਂ ਅਤੇ ਉਨ੍ਹਾਂ ਦੇ ਪੈਮਾਨੇ ਨੂੰ ਘੱਟ ਸਮਝਦੇ ਹਾਂ। ਉਹ ਐਨਸਾਈਕਲੋਪੀਡੀਆ ਨਹੀਂ ਹਨ। ਉਹ ਸੰਭਾਵਨਾ ਦੇ ਇੰਜਣ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਮਨੁੱਖੀ ਮਾਹਿਰਾਂ ਦੁਆਰਾ ਨਿਰੰਤਰ ਅਤੇ ਸਖ਼ਤ ਤਸਦੀਕ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਜੋ ਵਿਸ਼ੇ ਨੂੰ ਡੂੰਘਾਈ ਨਾਲ ਸਮਝਦੇ ਹਨ। ਇਸ ਅੰਤਰ ਨੂੰ ਸਮਝਣਾ ਪੇਸ਼ੇਵਰ ਮਾਹੌਲ ਵਿੱਚ ਇਹਨਾਂ ਟੂਲਜ਼ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਵਰਤਣ ਦਾ ਪਹਿਲਾ ਕਦਮ ਹੈ।
ਇਸ ਟੈਕਨਾਲੋਜੀ ਦਾ ਵਿਸ਼ਵਵਿਆਪੀ ਪ੍ਰਭਾਵ ਅਸਮਾਨ ਅਤੇ ਤੇਜ਼ ਹੈ। ਅਸੀਂ ਦੇਖ ਰਹੇ ਹਾਂ ਕਿ ਜਾਣਕਾਰੀ ਕਿਵੇਂ ਪੈਦਾ ਅਤੇ ਖਪਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਇਸ ਵਿੱਚ ਇੱਕ ਵੱਡਾ ਬਦਲਾਅ ਆ ਰਿਹਾ ਹੈ। ਬਹੁਤ ਸਾਰੇ ਵਿਕਾਸਸ਼ੀਲ ਦੇਸ਼ਾਂ ਵਿੱਚ, AI ਦੀ ਵਰਤੋਂ ਤਕਨੀਕੀ ਮੁਹਾਰਤ ਦੇ ਪਾੜੇ ਨੂੰ ਭਰਨ ਲਈ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ। ਨੈਰੋਬੀ ਵਿੱਚ ਇੱਕ ਛੋਟਾ ਕਾਰੋਬਾਰ ਹੁਣ ਉਹੀ ਐਡਵਾਂਸਡ ਕੋਡਿੰਗ ਅਸਿਸਟੈਂਟ ਵਰਤ ਸਕਦਾ ਹੈ ਜੋ ਸੈਨ ਫਰਾਂਸਿਸਕੋ ਵਿੱਚ ਇੱਕ ਸਟਾਰਟਅੱਪ ਕਰਦਾ ਹੈ। ਇਹ ਉੱਪਰੋਂ ਸ਼ਕਤੀ ਦੇ ਲੋਕਤੰਤਰੀਕਰਨ ਵਾਂਗ ਦਿਖਾਈ ਦਿੰਦਾ ਹੈ। ਹਾਲਾਂਕਿ, ਅੰਡਰਲਾਈੰਗ ਮਾਡਲ ਜ਼ਿਆਦਾਤਰ ਪੱਛਮੀ ਡੇਟਾ ਅਤੇ ਕਦਰਾਂ-ਕੀਮਤਾਂ ‘ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਗਏ ਹਨ। ਇਹ ਇੱਕ ਕਿਸਮ ਦਾ ਸੱਭਿਆਚਾਰਕ ਸਮਾਨਤਾਵਾਦ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਜਦੋਂ ਦੱਖਣ-ਪੂਰਬੀ ਏਸ਼ੀਆ ਵਿੱਚ ਕੋਈ ਉਪਭੋਗਤਾ AI ਤੋਂ ਕਾਰੋਬਾਰੀ ਸਲਾਹ ਮੰਗਦਾ ਹੈ, ਤਾਂ ਜਵਾਬ ਅਕਸਰ ਉੱਤਰੀ ਅਮਰੀਕੀ ਜਾਂ ਯੂਰਪੀਅਨ ਕਾਰਪੋਰੇਟ ਨਜ਼ਰੀਏ ਰਾਹੀਂ ਫਿਲਟਰ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ ਅਜਿਹੀਆਂ ਰਣਨੀਤੀਆਂ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ ਜੋ ਸਥਾਨਕ ਬਾਜ਼ਾਰ ਦੀਆਂ ਹਕੀਕਤਾਂ ਜਾਂ ਸੱਭਿਆਚਾਰਕ ਬਾਰੀਕੀਆਂ ਨਾਲ ਮੇਲ ਨਹੀਂ ਖਾਂਦੀਆਂ। ਗਲੋਬਲ ਕਮਿਊਨਿਟੀ ਇਸ ਗੱਲ ਨਾਲ ਜੂਝ ਰਹੀ ਹੈ ਕਿ ਕੁਝ ਵੱਡੇ, ਕੇਂਦਰੀਕ੍ਰਿਤ ਮਾਡਲਾਂ ਦੁਆਰਾ ਪ੍ਰਭਾਵਿਤ ਦੁਨੀਆ ਵਿੱਚ ਸਥਾਨਕ ਪਛਾਣ ਨੂੰ ਕਿਵੇਂ ਬਰਕਰਾਰ ਰੱਖਿਆ ਜਾਵੇ।
ਆਰਥਿਕ ਪਾੜੇ ਦਾ ਮਾਮਲਾ ਵੀ ਹੈ। ਇਹਨਾਂ ਮਾਡਲਾਂ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਲਈ ਬਹੁਤ ਜ਼ਿਆਦਾ ਕੰਪਿਊਟ ਪਾਵਰ ਅਤੇ ਬਿਜਲੀ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇਹ ਕੁਝ ਅਮੀਰ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਅਤੇ ਦੇਸ਼ਾਂ ਦੇ ਹੱਥਾਂ ਵਿੱਚ ਸ਼ਕਤੀ ਨੂੰ ਕੇਂਦਰਿਤ ਕਰਦਾ ਹੈ। ਹਾਲਾਂਕਿ ਨਤੀਜੇ ਵਿਸ਼ਵ ਪੱਧਰ ‘ਤੇ ਉਪਲਬਧ ਹਨ, ਨਿਯੰਤਰਣ ਕੁਝ ਹੀ ਜ਼ਿਪ ਕੋਡਾਂ ਤੱਕ ਸੀਮਤ ਹੈ। ਅਸੀਂ ਇੱਕ ਨਵੀਂ ਕਿਸਮ ਦੀ ਸਰੋਤ ਦੌੜ ਦੇਖ ਰਹੇ ਹਾਂ। ਇਹ ਹੁਣ ਸਿਰਫ਼ ਤੇਲ ਜਾਂ ਖਣਿਜਾਂ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਹਾਈ-ਐਂਡ ਚਿਪਸ ਅਤੇ ਡੇਟਾ ਸੈਂਟਰਾਂ ਬਾਰੇ ਹੈ ਜੋ ਉਹਨਾਂ ਨੂੰ ਚਲਾਉਣ ਲਈ ਲੋੜੀਂਦੇ ਹਨ। ਸਰਕਾਰਾਂ ਹੁਣ AI ਸਮਰੱਥਾ ਨੂੰ ਰਾਸ਼ਟਰੀ ਸੁਰੱਖਿਆ ਦਾ ਮਾਮਲਾ ਮੰਨ ਰਹੀਆਂ ਹਨ। ਇਸ ਕਾਰਨ ਐਕਸਪੋਰਟ ਪਾਬੰਦੀਆਂ ਅਤੇ ਵਪਾਰਕ ਤਣਾਅ ਪੈਦਾ ਹੋਏ ਹਨ ਜੋ ਪੂਰੀ ਟੈਕ ਸਪਲਾਈ ਚੇਨ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਦੇ ਹਨ। ਵਿਸ਼ਵਵਿਆਪੀ ਪ੍ਰਭਾਵ ਸਿਰਫ਼ ਸਾਫਟਵੇਅਰ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਆਧੁਨਿਕ ਸੰਸਾਰ ਦੇ ਭੌਤਿਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਬਾਰੇ ਹੈ। ਸਾਨੂੰ ਇਹ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਕੀ ਇਹਨਾਂ ਟੂਲਜ਼ ਦੇ ਲਾਭਾਂ ਨੂੰ ਨਿਰਪੱਖ ਰੂਪ ਵਿੱਚ ਵੰਡਿਆ ਜਾ ਰਿਹਾ ਹੈ ਜਾਂ ਕੀ ਉਹ ਸਿਰਫ਼ ਇੱਕ ਨਵੇਂ ਨਾਮ ਹੇਠ ਮੌਜੂਦਾ ਸ਼ਕਤੀ ਢਾਂਚਿਆਂ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰ ਰਹੇ ਹਨ।
ਅਸਲ ਸੰਸਾਰ ਵਿੱਚ, ਦਾਅ ਬਹੁਤ ਵਿਹਾਰਕ ਹੁੰਦੇ ਜਾ ਰਹੇ ਹਨ। ਮਾਰਕ ਨਾਮ ਦੇ ਇੱਕ ਜੂਨੀਅਰ ਡੇਟਾ ਐਨਾਲਿਸਟ ਦੇ ਦਿਨ ਬਾਰੇ ਸੋਚੋ। ਮਾਰਕ ਨੂੰ ਤਿਮਾਹੀ ਰਿਪੋਰਟ ਲਈ ਇੱਕ ਵੱਡਾ ਡੇਟਾਸੈਟ ਸਾਫ਼ ਕਰਨ ਦਾ ਕੰਮ ਸੌਂਪਿਆ ਗਿਆ ਹੈ। ਸਮਾਂ ਬਚਾਉਣ ਲਈ, ਉਹ ਸਕ੍ਰਿਪਟਾਂ ਲਿਖਣ ਅਤੇ ਨਤੀਜਿਆਂ ਦਾ ਸਾਰ ਦੇਣ ਲਈ ਇੱਕ AI ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। AI ਚਾਰਟਾਂ ਦਾ ਇੱਕ ਸੁੰਦਰ ਸੈੱਟ ਅਤੇ ਇੱਕ ਸੰਖੇਪ ਐਗਜ਼ੀਕਿਊਟਿਵ ਸਮਰੀ ਤਿਆਰ ਕਰਦਾ ਹੈ। ਮਾਰਕ ਗਤੀ ਤੋਂ ਪ੍ਰਭਾਵਿਤ ਹੁੰਦਾ ਹੈ ਅਤੇ ਕੰਮ ਜਮ੍ਹਾਂ ਕਰ ਦਿੰਦਾ ਹੈ। ਹਾਲਾਂਕਿ, AI ਨੇ ਸਰੋਤ ਫਾਈਲਾਂ ਵਿੱਚ ਇੱਕ ਸੂਖਮ ਡੇਟਾ ਭ੍ਰਿਸ਼ਟਾਚਾਰ ਦੇ ਮੁੱਦੇ ਨੂੰ ਗੁਆ ਦਿੱਤਾ। ਕਿਉਂਕਿ ਸਾਰ ਇੰਨਾ ਯਕੀਨਨ ਸੀ, ਮਾਰਕ ਨੇ ਨਤੀਜਿਆਂ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਲਈ ਕੱਚੇ ਡੇਟਾ ਵਿੱਚ ਡੂੰਘਾਈ ਨਾਲ ਨਹੀਂ ਦੇਖਿਆ। ਇੱਕ ਹਫ਼ਤੇ ਬਾਅਦ, ਕੰਪਨੀ ਉਸ ਗਲਤ ਰਿਪੋਰਟ ਦੇ ਆਧਾਰ ‘ਤੇ ਇੱਕ ਮਿਲੀਅਨ ਡਾਲਰ ਦਾ ਫੈਸਲਾ ਲੈਂਦੀ ਹੈ। ਇਹ ਕੋਈ ਸਿਧਾਂਤਕ ਜੋਖਮ ਨਹੀਂ ਹੈ। ਇਹ ਹਰ ਰੋਜ਼ ਦਫਤਰਾਂ ਵਿੱਚ ਹੋ ਰਿਹਾ ਹੈ। AI ਨੇ ਬਿਲਕੁਲ ਉਹੀ ਕੀਤਾ ਜੋ ਉਸਨੂੰ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ ਸੀ, ਪਰ ਮਾਰਕ ਜ਼ਰੂਰੀ ਨਿਗਰਾਨੀ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਿਹਾ। ਉਸਨੇ ਸਰੋਤ ‘ਤੇ ਸਵਾਲ ਕੀਤੇ ਬਿਨਾਂ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕੀਤੀ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਇਹ ਦ੍ਰਿਸ਼ ਪੇਸ਼ੇਵਰ ਵਰਕਫਲੋ ਵਿੱਚ ਇੱਕ ਵਧ ਰਹੀ ਸਮੱਸਿਆ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ਅਸੀਂ ਸਾਰ ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਹੁੰਦੇ ਜਾ ਰਹੇ ਹਾਂ। ਹੈਲਥਕੇਅਰ ਵਿੱਚ, ਡਾਕਟਰ ਮਰੀਜ਼ਾਂ ਦੇ ਨੋਟਸ ਅਤੇ ਡਾਇਗਨੌਸਟਿਕ ਸੁਝਾਵਾਂ ਵਿੱਚ ਮਦਦ ਲਈ AI ਦੀ ਜਾਂਚ ਕਰ ਰਹੇ ਹਨ। ਹਾਲਾਂਕਿ ਇਹ ਬਰਨਆਉਟ ਨੂੰ ਘਟਾ ਸਕਦਾ ਹੈ, ਇਹ ਜੋਖਮ ਦੀ ਇੱਕ ਪਰਤ ਪੇਸ਼ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਇੱਕ AI ਇੱਕ ਦੁਰਲੱਭ ਲੱਛਣ ਨੂੰ ਗੁਆ ਦਿੰਦਾ ਹੈ ਕਿਉਂਕਿ ਇਹ ਆਮ ਪੈਟਰਨ ਵਿੱਚ ਫਿੱਟ ਨਹੀਂ ਹੁੰਦਾ, ਤਾਂ ਨਤੀਜੇ ਜੀਵਨ ਬਦਲਣ ਵਾਲੇ ਹੋ ਸਕਦੇ ਹਨ। ਇਹੀ ਗੱਲ ਕਾਨੂੰਨੀ ਖੇਤਰ ‘ਤੇ ਵੀ ਲਾਗੂ ਹੁੰਦੀ ਹੈ। ਵਕੀਲਾਂ ਨੂੰ ਪਹਿਲਾਂ ਹੀ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਬ੍ਰੀਫ ਜਮ੍ਹਾਂ ਕਰਾਉਣ ਲਈ ਫੜਿਆ ਗਿਆ ਹੈ ਜਿਨ੍ਹਾਂ ਵਿੱਚ ਗੈਰ-ਮੌਜੂਦ ਅਦਾਲਤੀ ਕੇਸਾਂ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ ਗਿਆ ਸੀ। ਇਹ ਸਿਰਫ਼ ਸ਼ਰਮਨਾਕ ਗਲਤੀਆਂ ਨਹੀਂ ਹਨ। ਇਹ ਪੇਸ਼ੇਵਰ ਫਰਜ਼ ਦੀਆਂ ਅਸਫਲਤਾਵਾਂ ਹਨ। ਅਸੀਂ AI ਆਉਟਪੁੱਟ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਲਈ ਲੋੜੀਂਦੇ ਯਤਨਾਂ ਨੂੰ ਘੱਟ ਸਮਝਦੇ ਹਾਂ। AI ਸਾਰ ਨੂੰ ਫੈਕਟ-ਚੈੱਕ ਕਰਨ ਵਿੱਚ ਅਕਸਰ ਜ਼ਿਆਦਾ ਸਮਾਂ ਲੱਗਦਾ ਹੈ ਜਿੰਨਾ ਕਿ ਸ਼ੁਰੂ ਤੋਂ ਅਸਲ ਟੈਕਸਟ ਲਿਖਣ ਵਿੱਚ ਲੱਗਦਾ। ਇਹ ਵਿਰੋਧਾਭਾਸ ਉਹ ਹੈ ਜਿਸਨੂੰ ਬਹੁਤ ਸਾਰੀਆਂ ਸੰਸਥਾਵਾਂ ਨਵੇਂ ਟੂਲਜ਼ ਨੂੰ ਅਪਣਾਉਣ ਦੀ ਕਾਹਲੀ ਵਿੱਚ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰ ਰਹੀਆਂ ਹਨ।
ਵਿਹਾਰਕ ਦਾਅ ਸਾਡੀ ਹਕੀਕਤ ਦੀ ਧਾਰਨਾ ਨੂੰ ਸ਼ਾਮਲ ਕਰਦੇ ਹਨ। ਜਿਵੇਂ-ਜਿਵੇਂ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਇੰਟਰਨੈਟ ਨੂੰ ਭਰ ਰਹੀ ਹੈ, ਗਲਤ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਦੀ ਲਾਗਤ ਲਗਭਗ ਜ਼ੀਰੋ ਤੱਕ ਘੱਟ ਜਾਂਦੀ ਹੈ। ਅਸੀਂ ਪਹਿਲਾਂ ਹੀ ਰਾਜਨੀਤਿਕ ਮੁਹਿੰਮਾਂ ਅਤੇ ਸੋਸ਼ਲ ਇੰਜੀਨੀਅਰਿੰਗ ਹਮਲਿਆਂ ਵਿੱਚ ਡੀਪਫੇਕ ਦੀ ਵਰਤੋਂ ਹੁੰਦੇ ਦੇਖ ਰਹੇ ਹਾਂ। ਇਹ ਡਿਜੀਟਲ ਸੰਚਾਰ ਵਿੱਚ ਵਿਸ਼ਵਾਸ ਦੇ ਆਮ ਪੱਧਰ ਨੂੰ ਖਤਮ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨੂੰ ਜਾਅਲੀ ਬਣਾਇਆ ਜਾ ਸਕਦਾ ਹੈ, ਤਾਂ ਤਸਦੀਕ ਦੀ ਇੱਕ ਗੁੰਝਲਦਾਰ ਲੜੀ ਤੋਂ ਬਿਨਾਂ ਕਿਸੇ ਵੀ ਚੀਜ਼ ‘ਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਭਰੋਸਾ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ। ਇਹ ਵਿਅਕਤੀ ‘ਤੇ ਭਾਰੀ ਬੋਝ ਪਾਉਂਦਾ ਹੈ। ਅਸੀਂ ਸਾਡੇ ਲਈ ਸੱਚਾਈ ਨੂੰ ਫਿਲਟਰ ਕਰਨ ਲਈ ਨਾਮਵਰ ਸਰੋਤਾਂ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਸੀ। ਹੁਣ, ਉਹ ਸਰੋਤ ਵੀ ਸਮੱਗਰੀ ਤਿਆਰ ਕਰਨ ਲਈ AI ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਇੱਕ ਫੀਡਬੈਕ ਲੂਪ ਬਣਾਉਂਦਾ ਹੈ ਜਿੱਥੇ AI ਮਾਡਲ ਅੰਤ ਵਿੱਚ ਦੂਜੇ AI ਮਾਡਲਾਂ ਦੁਆਰਾ ਬਣਾਏ ਗਏ ਡੇਟਾ ‘ਤੇ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਖੋਜਕਰਤਾ ਇਸਨੂੰ ਮਾਡਲ ਕੋਲੈਪਸ (model collapse) ਕਹਿੰਦੇ ਹਨ। ਇਹ ਗੁਣਵੱਤਾ ਵਿੱਚ ਗਿਰਾਵਟ ਅਤੇ ਸਮੇਂ ਦੇ ਨਾਲ ਗਲਤੀਆਂ ਦੇ ਵਾਧੇ ਵੱਲ ਲੈ ਜਾਂਦਾ ਹੈ। ਸਾਨੂੰ ਇਹ ਫੈਸਲਾ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਕੀ ਅਸੀਂ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆ ਨੂੰ ਸਵੀਕਾਰ ਕਰਨ ਲਈ ਤਿਆਰ ਹਾਂ ਜਿੱਥੇ ਸੱਚਾਈ ਕੁਸ਼ਲਤਾ ਲਈ ਇੱਕ ਗੌਣ ਚਿੰਤਾ ਹੈ।
ਸਾਨੂੰ ਵਿਕਾਸ ਦੇ ਮੌਜੂਦਾ ਰਾਹ ‘ਤੇ ਸ਼ੱਕ ਦੀ ਇੱਕ ਪਰਤ ਲਾਗੂ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਅਜਿਹੇ ਮੁਸ਼ਕਲ ਸਵਾਲ ਹਨ ਜੋ ਇਹਨਾਂ ਸਿਸਟਮਾਂ ਨੂੰ ਬਣਾਉਣ ਵਾਲੀਆਂ ਕੰਪਨੀਆਂ ਦੁਆਰਾ ਅਣਸੁਲਝੇ ਰਹਿ ਗਏ ਹਨ। ਉਦਾਹਰਨ ਲਈ, ਇੱਕ ਸਿੰਗਲ AI ਪ੍ਰੋਂਪਟ ਦੀ ਅਸਲ ਵਾਤਾਵਰਣਕ ਲਾਗਤ ਕੀ ਹੈ? ਅਸੀਂ ਜਾਣਦੇ ਹਾਂ ਕਿ ਮਾਡਲਾਂ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਵਿੱਚ ਬਹੁਤ ਜ਼ਿਆਦਾ ਊਰਜਾ ਖਪਤ ਹੁੰਦੀ ਹੈ, ਪਰ ਇਨਫਰੈਂਸ (inference) ਦੀ ਚੱਲ ਰਹੀ ਲਾਗਤ ਅਕਸਰ ਜਨਤਾ ਤੋਂ ਲੁਕੀ ਹੁੰਦੀ ਹੈ। ਇੱਕ ਹੋਰ ਸਵਾਲ ਵਿੱਚ ਇਹਨਾਂ ਮਾਡਲਾਂ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਲਈ ਵਰਤੀ ਜਾਂਦੀ ਮਜ਼ਦੂਰੀ ਸ਼ਾਮਲ ਹੈ। ਜ਼ਿਆਦਾਤਰ ਡੇਟਾ ਲੇਬਲਿੰਗ ਅਤੇ ਸੁਰੱਖਿਆ ਫਿਲਟਰਿੰਗ ਮੁਸ਼ਕਲ ਹਾਲਤਾਂ ਵਿੱਚ ਘੱਟ ਤਨਖਾਹ ਵਾਲੇ ਮਜ਼ਦੂਰਾਂ ਦੁਆਰਾ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਕੀ ਸਾਡੇ AI ਅਸਿਸਟੈਂਟਾਂ ਦੀ ਸਹੂਲਤ ਸ਼ੋਸ਼ਿਤ ਮਜ਼ਦੂਰੀ ਦੀ ਨੀਂਹ ‘ਤੇ ਬਣੀ ਹੈ? ਸਾਨੂੰ ਮਨੁੱਖੀ ਬੋਧ ‘ਤੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਪ੍ਰਭਾਵਾਂ ਬਾਰੇ ਵੀ ਪੁੱਛਣ ਦੀ ਲੋੜ ਹੈ। ਜੇਕਰ ਅਸੀਂ ਆਪਣੀ ਲਿਖਤ, ਕੋਡਿੰਗ ਅਤੇ ਸੋਚ ਨੂੰ ਮਸ਼ੀਨਾਂ ਨੂੰ ਆਊਟਸੋਰਸ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਸਮੇਂ ਦੇ ਨਾਲ ਸਾਡੇ ਆਪਣੇ ਹੁਨਰਾਂ ਦਾ ਕੀ ਹੋਵੇਗਾ? ਕੀ ਅਸੀਂ ਵਧੇਰੇ ਉਤਪਾਦਕ ਬਣ ਰਹੇ ਹਾਂ ਜਾਂ ਸਿਰਫ਼ ਵਧੇਰੇ ਨਿਰਭਰ?
ਪ੍ਰਾਈਵੇਸੀ ਇੱਕ ਹੋਰ ਖੇਤਰ ਹੈ ਜਿੱਥੇ ਲਾਗਤਾਂ ਅਕਸਰ ਲੁਕੀਆਂ ਹੁੰਦੀਆਂ ਹਨ। ਜ਼ਿਆਦਾਤਰ AI ਮਾਡਲਾਂ ਨੂੰ ਕੰਮ ਕਰਨ ਲਈ ਵੱਡੀ ਮਾਤਰਾ ਵਿੱਚ ਡੇਟਾ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇਹ ਡੇਟਾ ਅਕਸਰ ਸਿਰਜਣਹਾਰਾਂ ਦੀ ਸਪੱਸ਼ਟ ਸਹਿਮਤੀ ਤੋਂ ਬਿਨਾਂ ਵੈੱਬ ਤੋਂ ਸਕ੍ਰੈਪ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਅਸੀਂ ਅਸਲ ਵਿੱਚ ਆਪਣੀ ਸਮੂਹਿਕ ਬੌਧਿਕ ਸੰਪੱਤੀ ਨੂੰ ਉਹਨਾਂ ਟੂਲਜ਼ ਨੂੰ ਬਣਾਉਣ ਲਈ ਦੇ ਰਹੇ ਹਾਂ ਜੋ ਅੰਤ ਵਿੱਚ ਸਾਨੂੰ ਬਦਲ ਸਕਦੇ ਹਨ। ਕੀ ਹੁੰਦਾ ਹੈ ਜਦੋਂ ਡੇਟਾ ਖਤਮ ਹੋ ਜਾਂਦਾ ਹੈ? ਕੰਪਨੀਆਂ ਪਹਿਲਾਂ ਹੀ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਵਧਾਉਣ ਲਈ ਨਿੱਜੀ ਗੱਲਬਾਤ ਅਤੇ ਅੰਦਰੂਨੀ ਕਾਰਪੋਰੇਟ ਡੇਟਾ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਦੇ ਤਰੀਕੇ ਲੱਭ ਰਹੀਆਂ ਹਨ। ਇਹ ਨਿੱਜੀ ਅਤੇ ਪੇਸ਼ੇਵਰ ਪ੍ਰਾਈਵੇਸੀ ਦੀਆਂ ਸੀਮਾਵਾਂ ਬਾਰੇ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਇੱਕ AI ਤੁਹਾਡੇ ਵਰਕਫਲੋ ਬਾਰੇ ਸਭ ਕੁਝ ਜਾਣਦਾ ਹੈ, ਤਾਂ ਇਹ ਤੁਹਾਡੀਆਂ ਕਮਜ਼ੋਰੀਆਂ ਨੂੰ ਵੀ ਜਾਣਦਾ ਹੈ। ਸਾਨੂੰ ਇਹ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਇਸ ਪੱਧਰ ਦੇ ਏਕੀਕਰਣ ਤੋਂ ਅਸਲ ਵਿੱਚ ਕਿਸ ਨੂੰ ਫਾਇਦਾ ਹੁੰਦਾ ਹੈ। ਕੀ ਇਹ ਉਪਭੋਗਤਾ ਹੈ, ਜਾਂ ਇਹ ਉਹ ਸੰਸਥਾ ਹੈ ਜੋ ਮਾਡਲ ਅਤੇ ਇਸ ਦੁਆਰਾ ਇਕੱਤਰ ਕੀਤੇ ਡੇਟਾ ਦੀ ਮਾਲਕ ਹੈ? ਇਹ ਸਵਾਲ ਸਿਰਫ਼ ਦਾਰਸ਼ਨਿਕਾਂ ਲਈ ਨਹੀਂ ਹਨ। ਉਹ ਹਰ ਉਸ ਵਿਅਕਤੀ ਲਈ ਹਨ ਜੋ ਸਮਾਰਟਫੋਨ ਜਾਂ ਕੰਪਿਊਟਰ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਅਤੇ ਡਿਵੈਲਪਰਾਂ ਲਈ, ਫੋਕਸ ਸਥਾਨਕ ਨਿਯੰਤਰਣ ਅਤੇ ਖਾਸ ਏਕੀਕਰਣ ਵੱਲ ਬਦਲ ਰਿਹਾ ਹੈ। ਹਾਲਾਂਕਿ OpenAI ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਤੋਂ ਕਲਾਉਡ-ਅਧਾਰਿਤ APIs ਸਭ ਤੋਂ ਵੱਧ ਕੱਚੀ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ, ਉਹ ਮਹੱਤਵਪੂਰਨ ਸੀਮਾਵਾਂ ਦੇ ਨਾਲ ਆਉਂਦੇ ਹਨ। ਰੇਟ ਲਿਮਿਟ ਅਤੇ ਲੇਟੈਂਸੀ ਇੱਕ ਗੁੰਝਲਦਾਰ ਵਰਕਫਲੋ ਨੂੰ ਤੋੜ ਸਕਦੇ ਹਨ। ਇਸੇ ਕਰਕੇ ਅਸੀਂ ਸਥਾਨਕ LLM ਹੋਸਟਿੰਗ ਲਈ ਦਿਲਚਸਪੀ ਵਿੱਚ ਵਾਧਾ ਦੇਖ ਰਹੇ ਹਾਂ। Llama.cpp ਅਤੇ Ollama ਵਰਗੇ ਟੂਲ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਆਪਣੇ ਖੁਦ ਦੇ ਹਾਰਡਵੇਅਰ ‘ਤੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਮਾਡਲ ਚਲਾਉਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੇ ਹਨ। ਇਹ ਪ੍ਰਾਈਵੇਸੀ ਦੇ ਮੁੱਦੇ ਨੂੰ ਹੱਲ ਕਰਦਾ ਹੈ ਅਤੇ ਤੀਜੀ-ਧਿਰ ਪ੍ਰਦਾਤਾ ‘ਤੇ ਨਿਰਭਰਤਾ ਨੂੰ ਦੂਰ ਕਰਦਾ ਹੈ। ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਮਾਡਲਾਂ ਨੂੰ ਸਥਾਨਕ ਤੌਰ ‘ਤੇ ਚਲਾਉਣ ਲਈ ਮਹੱਤਵਪੂਰਨ VRAM ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇੱਕ ਹਾਈ-ਐਂਡ ਕੰਜ਼ਿਊਮਰ GPU ਸ਼ਾਇਦ ਹੀ ਇੱਕ ਮੱਧਮ ਆਕਾਰ ਦੇ ਮਾਡਲ ਨੂੰ ਕੁਸ਼ਲਤਾ ਨਾਲ ਸੰਭਾਲ ਸਕੇ। ਡਿਵੈਲਪਰ Retrieval-Augmented Generation ਜਾਂ RAG ‘ਤੇ ਵੀ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਤਕਨੀਕ ਇੱਕ ਮਾਡਲ ਨੂੰ ਪ੍ਰੋਂਪਟ ਦਾ ਜਵਾਬ ਦੇਣ ਤੋਂ ਪਹਿਲਾਂ ਸਥਾਨਕ ਦਸਤਾਵੇਜ਼ਾਂ ਦੇ ਇੱਕ ਖਾਸ ਸੈੱਟ ਨੂੰ ਦੇਖਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੀ ਹੈ। ਇਹ AI ਨੂੰ ਇੱਕ ਖਾਸ, ਤਸਦੀਕ ਕੀਤੇ ਸੰਦਰਭ ਵਿੱਚ ਗਰਾਊਂਡ ਕਰਕੇ hallucinations ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਘਟਾਉਂਦਾ ਹੈ।
ਵਰਕਫਲੋ ਏਕੀਕਰਣ ਅਗਲੀ ਵੱਡੀ ਰੁਕਾਵਟ ਹੈ। ਬ੍ਰਾਊਜ਼ਰ ਵਿੱਚ ਬੋਟ ਨਾਲ ਗੱਲਬਾਤ ਕਰਨਾ ਇੱਕ ਗੱਲ ਹੈ। ਉਸ ਬੋਟ ਨੂੰ ਤੁਹਾਡੇ IDE ਜਾਂ ਤੁਹਾਡੇ ਪ੍ਰੋਜੈਕਟ ਮੈਨੇਜਮੈਂਟ ਸਾਫਟਵੇਅਰ ਵਿੱਚ ਜੋੜਨਾ ਪੂਰੀ ਤਰ੍ਹਾਂ ਵੱਖਰੀ ਗੱਲ ਹੈ। ਮੌਜੂਦਾ ਰੁਝਾਨ ਏਜੰਟਿਕ ਵਰਕਫਲੋ (agentic workflows) ਵੱਲ ਹੈ। ਇਹ ਉਹ ਸਿਸਟਮ ਹਨ ਜਿੱਥੇ AI ਸਿਰਫ਼ ਟੈਕਸਟ ਪ੍ਰਦਾਨ ਕਰਨ ਦੀ ਬਜਾਏ ਕੋਡ ਚਲਾਉਣ ਜਾਂ ਵੈੱਬ ਖੋਜਣ ਵਰਗੀਆਂ ਕਾਰਵਾਈਆਂ ਕਰ ਸਕਦਾ ਹੈ। ਇਸ ਲਈ ਮਜ਼ਬੂਤ ਗਲਤੀ ਹੈਂਡਲਿੰਗ ਅਤੇ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਪ੍ਰੋਟੋਕੋਲ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਜੇਕਰ ਇੱਕ AI ਏਜੰਟ ਕੋਲ ਫਾਈਲਾਂ ਨੂੰ ਮਿਟਾਉਣ ਜਾਂ ਈਮੇਲ ਭੇਜਣ ਦੀ ਸ਼ਕਤੀ ਹੈ, ਤਾਂ ਤਬਾਹੀ ਦੀ ਸੰਭਾਵਨਾ ਜ਼ਿਆਦਾ ਹੈ। ਡਿਵੈਲਪਰ ਕੰਟੈਕਸਟ ਵਿੰਡੋਜ਼ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਵੀ ਮਾਰ ਰਹੇ ਹਨ। ਇੱਕ ਮਿਲੀਅਨ ਟੋਕਨਾਂ ਦੀਆਂ ਵਿੰਡੋਜ਼ ਦੇ ਨਾਲ ਵੀ, ਮਾਡਲ ਇੱਕ ਲੰਬੇ ਦਸਤਾਵੇਜ਼ ਦੇ ਵਿਚਕਾਰ ਜਾਣਕਾਰੀ ਦਾ ਪਤਾ ਗੁਆ ਸਕਦੇ ਹਨ। ਇਸਨੂੰ lost in the middle ਵਰਤਾਰਾ ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਮਾਡਲ ਵਿੱਚ ਜਾਣਕਾਰੀ ਕਿਵੇਂ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ, ਇਸ ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਨਾ ਇੱਕ ਵਿਸ਼ੇਸ਼ ਹੁਨਰ ਬਣ ਰਿਹਾ ਹੈ। AI ਸੰਸਾਰ ਦਾ ਗੀਕ ਸੈਕਸ਼ਨ ਹੁਣ ਸਿਰਫ਼ ਮਾਡਲ ਬਾਰੇ ਨਹੀਂ ਹੈ। ਇਹ ਉਸ ਪਲੰਬਿੰਗ ਬਾਰੇ ਹੈ ਜੋ ਮਾਡਲ ਨੂੰ ਅਸਲ ਸੰਸਾਰ ਨਾਲ ਜੋੜਦੀ ਹੈ।
ਸਥਾਨਕ ਸਟੋਰੇਜ ਅਤੇ ਡੇਟਾ ਪ੍ਰਭੂਸੱਤਾ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਪ੍ਰਮੁੱਖ ਤਰਜੀਹਾਂ ਬਣ ਰਹੀਆਂ ਹਨ। ਬਹੁਤ ਸਾਰੀਆਂ ਕੰਪਨੀਆਂ ਹੁਣ ਸੰਵੇਦਨਸ਼ੀਲ ਡੇਟਾ ਲਈ ਜਨਤਕ AI ਟੂਲਜ਼ ਦੀ ਵਰਤੋਂ ‘ਤੇ ਪਾਬੰਦੀ ਲਗਾ ਰਹੀਆਂ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਆਪਣੇ ਖੁਦ ਦੇ ਕਲਾਉਡ ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਦੇ ਅੰਦਰ ਨਿੱਜੀ ਇੰਸਟੈਂਸ ਤੈਨਾਤ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦਾ ਮਲਕੀਅਤ ਡੇਟਾ ਜਨਤਕ ਮਾਡਲ ਦੇ ਭਵਿੱਖ ਦੇ ਸੰਸਕਰਣਾਂ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਲਈ ਨਹੀਂ ਵਰਤਿਆ ਜਾਂਦਾ ਹੈ। ਛੋਟੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਜਾਂ SLMs ਵੱਲ ਵੀ ਇੱਕ ਵਧ ਰਹੀ ਲਹਿਰ ਹੈ। ਇਹ ਘੱਟ ਪੈਰਾਮੀਟਰਾਂ ਵਾਲੇ ਮਾਡਲ ਹਨ ਜੋ ਕਿਸੇ ਖਾਸ ਕੰਮ ਲਈ ਫਾਈਨ-ਟਿਊਨ ਕੀਤੇ ਗਏ ਹਨ। ਉਹ ਇੱਕ ਵਿਸ਼ਾਲ ਆਮ-ਉਦੇਸ਼ ਵਾਲੇ ਮਾਡਲ ਨਾਲੋਂ ਤੇਜ਼, ਚਲਾਉਣ ਲਈ ਸਸਤੇ, ਅਤੇ ਅਕਸਰ ਆਪਣੇ ਖਾਸ ਉਦੇਸ਼ ਲਈ ਵਧੇਰੇ ਸਹੀ ਹੁੰਦੇ ਹਨ। ਪਾਵਰ ਯੂਜ਼ਰਾਂ ਲਈ ਭਵਿੱਖ ਇੱਕ ਵਿਸ਼ਾਲ AI ਬਾਰੇ ਨਹੀਂ ਹੈ ਜੋ ਸਭ ਕੁਝ ਕਰਦਾ ਹੈ। ਇਹ ਵਿਸ਼ੇਸ਼ ਟੂਲਜ਼ ਦੀ ਇੱਕ ਲਾਇਬ੍ਰੇਰੀ ਬਾਰੇ ਹੈ ਜੋ ਸਥਾਨਕ ਤੌਰ ‘ਤੇ ਨਿਯੰਤਰਿਤ ਕੀਤੇ ਜਾਂਦੇ ਹਨ ਅਤੇ ਮੌਜੂਦਾ ਸਿਸਟਮਾਂ ਵਿੱਚ ਡੂੰਘਾਈ ਨਾਲ ਏਕੀਕ੍ਰਿਤ ਹੁੰਦੇ ਹਨ। ਇਹ ਪਹੁੰਚ ਆਮ AI ਦੀ ਚਮਕਦਾਰ ਪਰ ਅਨੁਮਾਨਿਤ ਪ੍ਰਕਿਰਤੀ ਨਾਲੋਂ ਭਰੋਸੇਯੋਗਤਾ ਅਤੇ ਸੁਰੱਖਿਆ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੀ ਹੈ।
Nota del editor: Creamos este sitio como un centro multilingüe de noticias y guías sobre IA para personas que no son expertos en informática, pero que aún quieren entender la inteligencia artificial, usarla con más confianza y seguir el futuro que ya está llegando.
ਸਿੱਟਾ ਇਹ ਹੈ ਕਿ AI ਅਥਾਹ ਸੰਭਾਵਨਾਵਾਂ ਅਤੇ ਮਹੱਤਵਪੂਰਨ ਜੋਖਮ ਦਾ ਇੱਕ ਟੂਲ ਹੈ। ਇਹ ਕੋਈ ਜਾਦੂਈ ਹੱਲ ਨਹੀਂ ਹੈ ਜੋ ਬਿਨਾਂ ਕਿਸੇ ਕੋਸ਼ਿਸ਼ ਦੇ ਸਾਡੀਆਂ ਸਾਰੀਆਂ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰ ਦੇਵੇਗਾ। ਖੇਤਰ ਵਿੱਚ ਸਭ ਤੋਂ ਸਮਾਰਟ ਆਵਾਜ਼ਾਂ ਉਹ ਨਹੀਂ ਹਨ ਜੋ ਯੂਟੋਪੀਆ ਦਾ ਵਾਅਦਾ ਕਰ ਰਹੀਆਂ ਹਨ। ਉਹ ਉਹ ਹਨ ਜੋ ਸਾਨੂੰ ਸਾਵਧਾਨ ਰਹਿਣ ਲਈ ਕਹਿ ਰਹੀਆਂ ਹਨ। ਸਾਨੂੰ ਇਹਨਾਂ ਸਿਸਟਮਾਂ ਦੇ ਨਤੀਜਿਆਂ ਤੋਂ ਇੱਕ ਨਾਜ਼ੁਕ ਦੂਰੀ ਬਣਾਈ ਰੱਖਣੀ ਚਾਹੀਦੀ ਹੈ। ਟੀਚਾ ਮਨੁੱਖੀ ਸਮਰੱਥਾ ਨੂੰ ਵਧਾਉਣ ਲਈ AI ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ, ਨਾ ਕਿ ਇਸਨੂੰ ਬਦਲਣ ਲਈ। ਇਸ ਲਈ ਜੀਵਨ ਭਰ ਸਿੱਖਣ ਦੀ ਵਚਨਬੱਧਤਾ ਅਤੇ ਸ਼ੱਕ ਦੀ ਇੱਕ ਸਿਹਤਮੰਦ ਖੁਰਾਕ ਦੀ ਲੋੜ ਹੈ। ਅਸੀਂ ਅਜੇ ਵੀ ਇਸ ਟੈਕਨਾਲੋਜੀ ਦੇ ਸ਼ੁਰੂਆਤੀ ਪੜਾਵਾਂ ਵਿੱਚ ਹਾਂ। ਅਸੀਂ ਹੁਣ ਜੋ ਚੋਣਾਂ ਕਰਦੇ ਹਾਂ ਕਿ ਅਸੀਂ AI ਨੂੰ ਆਪਣੇ ਜੀਵਨ ਵਿੱਚ ਕਿਵੇਂ ਜੋੜਦੇ ਹਾਂ, ਉਸਦੇ ਨਤੀਜੇ ਦਹਾਕਿਆਂ ਤੱਕ ਰਹਿਣਗੇ। ਨਵੀਨਤਮ AI ਖੋਜ ਰੁਝਾਨਾਂ ਦੀ ਪਾਲਣਾ ਕਰਕੇ ਸੂਚਿਤ ਰਹੋ ਅਤੇ ਹਮੇਸ਼ਾ ਪ੍ਰਾਪਤ ਹੋਣ ਵਾਲੇ ਸੰਕੇਤਾਂ ਦੀ ਪੁਸ਼ਟੀ ਕਰੋ। ਕਿਸੇ ਵੀ AI ਸਿਸਟਮ ਦਾ ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਹਿੱਸਾ ਅਜੇ ਵੀ ਕੀਬੋਰਡ ‘ਤੇ ਬੈਠਾ ਮਨੁੱਖ ਹੈ।
ਇੱਕ ਲਾਈਵ ਸਵਾਲ ਬਾਕੀ ਹੈ। ਜਿਵੇਂ-ਜਿਵੇਂ AI ਮਾਡਲ ਇੰਟਰਨੈਟ ‘ਤੇ ਜ਼ਿਆਦਾਤਰ ਸਮੱਗਰੀ ਤਿਆਰ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰਦੇ ਹਨ, ਅਸੀਂ ਮਾਡਲਾਂ ਦੀ ਅਗਲੀ ਪੀੜ੍ਹੀ ਨੂੰ ਕਿਵੇਂ ਟ੍ਰੇਨ ਕਰਾਂਗੇ ਬਿਨਾਂ ਉਹਨਾਂ ਦੇ ਆਪਣੇ ਗੂੰਜਾਂ ਦੁਆਰਾ ਵਿਗਾੜੇ ਜਾਣ ਦੇ? ਇਹ ਇੱਕ ਅਜਿਹੀ ਸਮੱਸਿਆ ਹੈ ਜਿਸਨੂੰ ਅਜੇ ਤੱਕ ਕਿਸੇ ਨੇ ਹੱਲ ਨਹੀਂ ਕੀਤਾ ਹੈ। ਅਸੀਂ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਡਿਜੀਟਲ ਇਨਬ੍ਰੀਡਿੰਗ ਦੇ ਇੱਕ ਦੌਰ ਵਿੱਚ ਦਾਖਲ ਹੋ ਰਹੇ ਹਾਂ ਜਿੱਥੇ ਸਾਡੀ ਸਮੂਹਿਕ ਜਾਣਕਾਰੀ ਦੀ ਗੁਣਵੱਤਾ ਘਟਣੀ ਸ਼ੁਰੂ ਹੋ ਸਕਦੀ ਹੈ। ਇਹ ਮਨੁੱਖ ਦੁਆਰਾ ਬਣਾਏ ਗਏ ਡੇਟਾ ਅਤੇ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਨੂੰ ਪਹਿਲਾਂ ਨਾਲੋਂ ਕਿਤੇ ਵੱਧ ਕੀਮਤੀ ਬਣਾਉਂਦਾ ਹੈ। ਜੇਕਰ ਤੁਹਾਨੂੰ AI ਵਿਕਾਸ ਦਾ ਵਿਸ਼ਾ ਦਿਲਚਸਪ ਲੱਗਦਾ ਹੈ, ਤਾਂ ਤੁਸੀਂ MIT Technology Review ਵਿਖੇ ਕੀਤੇ ਜਾ ਰਹੇ ਕੰਮ ‘ਤੇ ਨਜ਼ਰ ਮਾਰ ਸਕਦੇ ਹੋ ਜਾਂ ਉਨ੍ਹਾਂ ਦੇ ਸੁਰੱਖਿਆ ਪ੍ਰੋਟੋਕੋਲ ਬਾਰੇ OpenAI ਤੋਂ ਅਪਡੇਟਸ ਦੀ ਪਾਲਣਾ ਕਰ ਸਕਦੇ ਹੋ। ਇਸ ਖੇਤਰ ਦਾ ਵਿਕਾਸ ਅਜੇ ਖਤਮ ਨਹੀਂ ਹੋਇਆ ਹੈ।
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।