ਕੀ AI ਦੇ ਖਤਰੇ ਬਿਹਤਰ ਢੰਗ ਨਾਲ ਸੰਭਾਲੇ ਜਾ ਰਹੇ ਹਨ — ਜਾਂ ਸਿਰਫ ਬਿਹਤਰ ਮਾਰਕੀਟਿੰਗ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ?
ਕੀ ਤੁਸੀਂ ਕਦੇ ਨੋਟ ਕੀਤਾ ਹੈ ਕਿ ਅੱਜ-ਕੱਲ੍ਹ ਜਦੋਂ ਵੀ ਤੁਸੀਂ ਕੋਈ ਨਵੀਂ app ਖੋਲ੍ਹਦੇ ਹੋ, ਤਾਂ ਇੱਕ ਵੱਡਾ, ਦੋਸਤਾਨਾ ਪੌਪ-ਅੱਪ ਆਉਂਦਾ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਦੱਸਦਾ ਹੈ ਕਿ ਕੰਪਨੀ ਤੁਹਾਡੀ ਸੁਰੱਖਿਆ ਦੀ ਕਿੰਨੀ ਪਰਵਾਹ ਕਰਦੀ ਹੈ? ਇਹ ਕੁਝ ਅਜਿਹਾ ਹੈ ਜਿਵੇਂ ਤੁਸੀਂ ਕਿਸੇ ਬੇਕਰੀ ਵਿੱਚ ਜਾਓ ਅਤੇ ਬੇਕਰ ਤੁਹਾਨੂੰ ਕ੍ਰੋਇਸੈਂਟ ਦਿਖਾਉਣ ਤੋਂ ਪਹਿਲਾਂ ਦਸ ਮਿੰਟ ਅੱਗ ਬੁਝਾਉਣ ਵਾਲੇ ਸਿਸਟਮ ਬਾਰੇ ਸਮਝਾਵੇ। ਅੱਜ-ਕੱਲ੍ਹ, artificial intelligence ਬਾਰੇ ਗੱਲਬਾਤ ਇਹ ਬਦਲ ਗਈ ਹੈ ਕਿ ਇਹ ਟੂਲ ਕੀ ਕਰ ਸਕਦੇ ਹਨ ਅਤੇ ਅਸੀਂ ਉਹਨਾਂ ਨੂੰ ਗਲਤ ਕੰਮ ਕਰਨ ਤੋਂ ਕਿਵੇਂ ਰੋਕ ਸਕਦੇ ਹਾਂ। ਇਹ ਇੱਕ ਰੋਮਾਂਚਕ ਸਮਾਂ ਹੈ ਕਿਉਂਕਿ ਅਸੀਂ ਰੋਬੋਟਾਂ ਦੁਆਰਾ ਦੁਨੀਆ ਉੱਤੇ ਕਬਜ਼ਾ ਕਰਨ ਵਾਲੀਆਂ ਡਰਾਉਣੀਆਂ ਫਿਲਮਾਂ ਤੋਂ ਅੱਗੇ ਨਿਕਲ ਕੇ ਅਸਲ, ਵਿਹਾਰਕ ਤਰੀਕਿਆਂ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ ਜਿਸ ਨਾਲ ਅਸੀਂ ਇਹਨਾਂ ਸਮਾਰਟ ਸਿਸਟਮਾਂ ਨੂੰ ਹਰ ਕਿਸੇ ਲਈ ਕੰਮ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾ ਸਕੀਏ। ਇੱਥੇ ਮੁੱਖ ਗੱਲ ਇਹ ਹੈ ਕਿ ਜਦੋਂ ਕਿ ਕੁਝ ਸੁਰੱਖਿਆ ਵਾਲੀਆਂ ਗੱਲਾਂ ਯਕੀਨੀ ਤੌਰ ‘ਤੇ ਸਾਨੂੰ ਖੁਸ਼ ਕਰਨ ਲਈ ਚਲਾਕ ਮਾਰਕੀਟਿੰਗ ਹਨ, ਪਰ ਸਾਡੀ ਪ੍ਰਾਈਵੇਸੀ ਦੀ ਰੱਖਿਆ ਕਰਨ ਅਤੇ ਸਾਡੇ ਡੇਟਾ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਲਈ ਪਰਦੇ ਦੇ ਪਿੱਛੇ ਬਹੁਤ ਸਾਰਾ ਅਸਲ ਕੰਮ ਵੀ ਹੋ ਰਿਹਾ ਹੈ।
ਸਾਰਿਆਂ ਦੇ ਦਿਮਾਗ ਵਿੱਚ ਵੱਡਾ ਸਵਾਲ ਇਹ ਹੈ ਕਿ ਕੀ ਇਹ ਕੰਪਨੀਆਂ ਅਸਲ ਵਿੱਚ ਚੀਜ਼ਾਂ ਨੂੰ ਸੁਰੱਖਿਅਤ ਬਣਾ ਰਹੀਆਂ ਹਨ ਜਾਂ ਉਹ ਸਿਰਫ਼ ਸਾਨੂੰ ਇਹ ਦੱਸਣ ਵਿੱਚ ਬਿਹਤਰ ਹੋ ਰਹੀਆਂ ਹਨ ਕਿ ਉਹ ਸੁਰੱਖਿਅਤ ਹਨ। ਇਹ ਦੋਵਾਂ ਦਾ ਮਿਸ਼ਰਣ ਹੈ, ਅਤੇ ਇਹ ਅਸਲ ਵਿੱਚ ਠੀਕ ਹੈ। ਜਦੋਂ ਕੋਈ ਕੰਪਨੀ ਸੁਰੱਖਿਆ ਦੀ ਮਾਰਕੀਟਿੰਗ ਕਰਦੀ ਹੈ, ਤਾਂ ਉਹ ਇੱਕ ਵਾਅਦਾ ਕਰਦੀ ਹੈ ਜਿਸਨੂੰ ਉਹਨਾਂ ਨੂੰ ਨਿਭਾਉਣਾ ਪੈਂਦਾ ਹੈ, ਨਹੀਂ ਤਾਂ ਉਹ ਲੱਖਾਂ ਲੋਕਾਂ ਦਾ ਭਰੋਸਾ ਗੁਆਉਣ ਦਾ ਜੋਖਮ ਲੈਂਦੇ ਹਨ। ਅਸੀਂ ਦੇਖ ਰਹੇ ਹਾਂ ਕਿ ਸਭ ਤੋਂ ਸੁਰੱਖਿਅਤ ਟੂਲ ਹੋਣਾ ਓਨਾ ਹੀ ਮਹੱਤਵਪੂਰਨ ਹੈ ਜਿੰਨਾ ਕਿ ਸਭ ਤੋਂ ਤੇਜ਼ ਜਾਂ ਸਭ ਤੋਂ ਸਮਾਰਟ ਟੂਲ ਹੋਣਾ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਅਸੀਂ ਉਹਨਾਂ ਗੜਬੜੀਆਂ ਵਿੱਚ ਪੈਣ ਦੇ ਬਹੁਤ ਘੱਟ ਮੌਕੇ ਦੇ ਨਾਲ ਹਾਈ-ਟੈਕ ਮਦਦ ਦੇ ਸਾਰੇ ਲਾਭਾਂ ਦਾ ਆਨੰਦ ਲੈ ਸਕਦੇ ਹਾਂ ਜਿਨ੍ਹਾਂ ਬਾਰੇ ਅਸੀਂ ਪਹਿਲਾਂ ਚਿੰਤਤ ਹੁੰਦੇ ਸੀ। ਇਹ ਸਭ ਉਸ ਸਾਫਟਵੇਅਰ ਨਾਲ ਬਿਹਤਰ ਰਿਸ਼ਤਾ ਬਣਾਉਣ ਬਾਰੇ ਹੈ ਜੋ ਅਸੀਂ ਹਰ ਰੋਜ਼ ਵਰਤਦੇ ਹਾਂ।
ਕੋਈ ਗਲਤੀ ਮਿਲੀ ਜਾਂ ਕੁਝ ਠੀਕ ਕਰਨ ਦੀ ਲੋੜ ਹੈ? ਸਾਨੂੰ ਦੱਸੋ।ਆਧੁਨਿਕ ਸੁਰੱਖਿਆ ਦਾ ਗੁਪਤ ਫਾਰਮੂਲਾ
AI ਰਿਸਕ ਮੈਨੇਜਮੈਂਟ ਨੂੰ ਇੱਕ ਆਧੁਨਿਕ ਕਾਰ ਦੇ ਸੁਰੱਖਿਆ ਫੀਚਰਾਂ ਵਾਂਗ ਸਮਝੋ। ਤੁਸੀਂ ਆਮ ਤੌਰ ‘ਤੇ ਕਰਿਆਨੇ ਦੀ ਦੁਕਾਨ ‘ਤੇ ਜਾਂਦੇ ਸਮੇਂ ਕ੍ਰਮਪਲ ਜ਼ੋਨਾਂ ਜਾਂ ਸਾਈਡ-ਇਮਪੈਕਟ ਬੀਮ ਬਾਰੇ ਨਹੀਂ ਸੋਚਦੇ, ਪਰ ਤੁਸੀਂ ਖੁਸ਼ ਹੁੰਦੇ ਹੋ ਕਿ ਉਹ ਉੱਥੇ ਹਨ। ਸਮਾਰਟ ਸਾਫਟਵੇਅਰ ਦੀ ਦੁਨੀਆ ਵਿੱਚ, ਇਹਨਾਂ ਸੁਰੱਖਿਆ ਫੀਚਰਾਂ ਨੂੰ ਅਕਸਰ ਗਾਰਡਰੇਲ (guardrails) ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਕਲਪਨਾ ਕਰੋ ਕਿ ਤੁਸੀਂ ਇੱਕ ਬਹੁਤ ਹੀ ਸਮਾਰਟ ਅਸਿਸਟੈਂਟ ਨਾਲ ਗੱਲ ਕਰ ਰਹੇ ਹੋ ਜਿਸਨੇ ਲਾਇਬ੍ਰੇਰੀ ਦੀ ਹਰ ਕਿਤਾਬ ਪੜ੍ਹੀ ਹੈ। ਗਾਰਡਰੇਲ ਤੋਂ ਬਿਨਾਂ, ਉਹ ਅਸਿਸਟੈਂਟ ਸ਼ਾਇਦ ਗਲਤੀ ਨਾਲ ਕੋਈ ਗੁਪਤ ਰੈਸਿਪੀ ਸਾਂਝੀ ਕਰ ਸਕਦਾ ਹੈ ਜਾਂ ਕਿਸੇ ਦਾ ਪ੍ਰਾਈਵੇਟ ਫੋਨ ਨੰਬਰ ਦੇ ਸਕਦਾ ਹੈ ਕਿਉਂਕਿ ਉਸਨੂੰ ਪੁੱਛਿਆ ਗਿਆ ਸੀ। ਰਿਸਕ ਮੈਨੇਜਮੈਂਟ ਉਸ ਅਸਿਸਟੈਂਟ ਨੂੰ ਇਹ ਸਿਖਾਉਣ ਦੀ ਪ੍ਰਕਿਰਿਆ ਹੈ ਕਿ ਕਦੋਂ ਕੋਈ ਸਵਾਲ ਹੱਦ ਪਾਰ ਕਰ ਰਿਹਾ ਹੈ ਅਤੇ ਨਿਮਰਤਾ ਨਾਲ ਨਾਂਹ ਕਿਵੇਂ ਕਹਿਣੀ ਹੈ।
ਕੰਪਨੀਆਂ ਅਜਿਹਾ ਕਰਨ ਲਈ ਸਭ ਤੋਂ ਵਧੀਆ ਤਰੀਕਿਆਂ ਵਿੱਚੋਂ ਇੱਕ ‘ਰੈੱਡ ਟੀਮਿੰਗ’ (red teaming) ਦੀ ਵਰਤੋਂ ਕਰਦੀਆਂ ਹਨ। ਇਹ ਇੱਕ ਜਾਸੂਸੀ ਫਿਲਮ ਵਾਂਗ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹ ਅਸਲ ਵਿੱਚ ਦੋਸਤਾਨਾ ਮਾਹਿਰਾਂ ਦਾ ਇੱਕ ਸਮੂਹ ਹੈ ਜੋ AI ਨੂੰ ਕੁਝ ਮੂਰਖਤਾ ਭਰਿਆ ਜਾਂ ਗਲਤ ਕਹਿਣ ਲਈ ਧੋਖਾ ਦੇਣ ਦੇ ਤਰੀਕੇ ਲੱਭਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦੇ ਹਨ। ਉਹ ਆਪਣੇ ਦਿਨ ਸਭ ਤੋਂ ਅਜੀਬ, ਸਭ ਤੋਂ ਮੁਸ਼ਕਲ ਸਵਾਲ ਪੁੱਛਣ ਵਿੱਚ ਬਿਤਾਉਂਦੇ ਹਨ ਤਾਂ ਜੋ ਇਹ ਦੇਖਿਆ ਜਾ ਸਕੇ ਕਿ ਸਿਸਟਮ ਕਿੱਥੇ ਗਲਤੀ ਕਰ ਸਕਦਾ ਹੈ। ਇਹਨਾਂ ਕਮਜ਼ੋਰ ਪੁਆਇੰਟਾਂ ਨੂੰ ਜਲਦੀ ਲੱਭ ਕੇ, ਡਿਵੈਲਪਰ ਸਾਫਟਵੇਅਰ ਦੇ ਤੁਹਾਡੇ ਫੋਨ ਤੱਕ ਪਹੁੰਚਣ ਤੋਂ ਪਹਿਲਾਂ ਹੀ ਉਹਨਾਂ ਨੂੰ ਠੀਕ ਕਰ ਸਕਦੇ ਹਨ। ਇਹ ਇੱਕ ਖਿਡੌਣਾ ਕੰਪਨੀ ਵਾਂਗ ਹੈ ਜੋ ਇੱਕ ਨਵੇਂ ਝੂਲੇ ਦਾ ਟੈਸਟ ਕਰਦੀ ਹੈ ਤਾਂ ਜੋ ਇਹ ਯਕੀਨੀ ਬਣਾਇਆ ਜਾ ਸਕੇ ਕਿ ਉਹ ਪਾਰਕ ਵਿੱਚ ਲਗਾਉਣ ਤੋਂ ਪਹਿਲਾਂ ਬਹੁਤ ਜ਼ਿਆਦਾ ਭਾਰ ਚੁੱਕ ਸਕਦਾ ਹੈ। ਇਹ ਕਿਰਿਆਸ਼ੀਲ ਪਹੁੰਚ ਇੱਕ ਵੱਡਾ ਕਾਰਨ ਹੈ ਕਿ ਅੱਜ ਅਸੀਂ ਜੋ ਟੂਲ ਵਰਤਦੇ ਹਾਂ ਉਹ ਇੱਕ ਸਾਲ ਪਹਿਲਾਂ ਨਾਲੋਂ ਕਿਤੇ ਜ਼ਿਆਦਾ ਭਰੋਸੇਮੰਦ ਮਹਿਸੂਸ ਹੁੰਦੇ ਹਨ।
ਇਸ ਪਹੇਲੀ ਦਾ ਇੱਕ ਹੋਰ ਵੱਡਾ ਹਿੱਸਾ ਇਹ ਹੈ ਕਿ ਇਹ ਸਿਸਟਮ ਕਿਵੇਂ ਟ੍ਰੇਨ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਪਹਿਲਾਂ, ਡੇਟਾ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਇਹ ਥੋੜਾ ਬੇਤਰਤੀਬ ਸੀ। ਹੁਣ, ਉੱਚ-ਗੁਣਵੱਤਾ ਵਾਲੀ, ਨੈਤਿਕ ਤੌਰ ‘ਤੇ ਪ੍ਰਾਪਤ ਕੀਤੀ ਜਾਣਕਾਰੀ ਦੀ ਵਰਤੋਂ ਕਰਨ ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਧਿਆਨ ਦਿੱਤਾ ਜਾ ਰਿਹਾ ਹੈ। ਕੰਪਨੀਆਂ ਨੂੰ ਇਹ ਸਮਝ ਆ ਰਿਹਾ ਹੈ ਕਿ ਜੇਕਰ ਤੁਸੀਂ ਗੜਬੜ ਵਾਲਾ ਡੇਟਾ ਪਾਉਂਦੇ ਹੋ, ਤਾਂ ਨਤੀਜੇ ਵੀ ਗੜਬੜ ਵਾਲੇ ਹੀ ਮਿਲਣਗੇ। AI ਕੀ ਸਿੱਖਦਾ ਹੈ ਇਸ ਬਾਰੇ ਵਧੇਰੇ ਚੋਣਵੇਂ ਹੋ ਕੇ, ਉਹ ਕੁਦਰਤੀ ਤੌਰ ‘ਤੇ ਸਿਸਟਮ ਦੁਆਰਾ ਮਾੜੀਆਂ ਆਦਤਾਂ ਜਾਂ ਪੱਖਪਾਤੀ ਵਿਚਾਰਾਂ ਨੂੰ ਅਪਣਾਉਣ ਦੀਆਂ ਸੰਭਾਵਨਾਵਾਂ ਨੂੰ ਘਟਾ ਸਕਦੇ ਹਨ। ਇਹ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਵਰਗਾ ਹੈ ਕਿ ਇੱਕ ਵਿਦਿਆਰਥੀ ਕੋਲ ਸਭ ਤੋਂ ਵਧੀਆ ਪਾਠ ਪੁਸਤਕਾਂ ਅਤੇ ਸਭ ਤੋਂ ਦਿਆਲੂ ਅਧਿਆਪਕ ਹੋਣ ਤਾਂ ਜੋ ਉਹ ਸਮਾਜ ਦਾ ਇੱਕ ਮਦਦਗਾਰ ਮੈਂਬਰ ਬਣ ਸਕੇ। ਮਾਤਰਾ ਨਾਲੋਂ ਗੁਣਵੱਤਾ ਵੱਲ ਇਹ ਬਦਲਾਅ ਹਰ ਜਗ੍ਹਾ ਦੇ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਇੱਕ ਵੱਡੀ ਜਿੱਤ ਹੈ।
ਪੂਰੀ ਦੁਨੀਆ ਕਿਉਂ ਦੇਖ ਰਹੀ ਹੈ
ਸੁਰੱਖਿਆ ‘ਤੇ ਇਹ ਫੋਕਸ ਸਿਰਫ ਇੱਕ ਖਲਾਅ ਵਿੱਚ ਨਹੀਂ ਹੋ ਰਿਹਾ ਹੈ। ਇਹ ਇੱਕ ਵਿਸ਼ਵਵਿਆਪੀ ਅੰਦੋਲਨ ਹੈ ਜੋ ਇਹ ਬਦਲ ਰਿਹਾ ਹੈ ਕਿ ਦੇਸ਼ ਇੱਕ ਦੂਜੇ ਨਾਲ ਕਿਵੇਂ ਗੱਲ ਕਰਦੇ ਹਨ। ਵਾਸ਼ਿੰਗਟਨ ਵਿੱਚ ਸਰਕਾਰੀ ਹਾਲਾਂ ਤੋਂ ਲੈ ਕੇ ਬ੍ਰਸੇਲਜ਼ ਦੇ ਰੁਝੇਵੇਂ ਵਾਲੇ ਦਫਤਰਾਂ ਤੱਕ, ਹਰ ਕੋਈ ਇਸ ਨਵੇਂ ਯੁੱਗ ਲਈ ਵਧੀਆ ਨਿਯਮਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਿਹਾ ਹੈ। ਇਹ ਤੁਹਾਡੇ ਲਈ ਬਹੁਤ ਵਧੀਆ ਖ਼ਬਰ ਹੈ ਕਿਉਂਕਿ ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਟੈਕ ਦਿੱਗਜਾਂ ‘ਤੇ ਪਾਰਦਰਸ਼ੀ ਹੋਣ ਲਈ ਬਹੁਤ ਦਬਾਅ ਹੈ। ਜਦੋਂ ਵੱਖ-ਵੱਖ ਦੇਸ਼ ਪ੍ਰਾਈਵੇਸੀ ਅਤੇ ਸੁਰੱਖਿਆ ਲਈ ਉੱਚ ਮਾਪਦੰਡ ਨਿਰਧਾਰਤ ਕਰਦੇ ਹਨ, ਤਾਂ ਇਹ ਕੰਪਨੀਆਂ ਨੂੰ ਉਹਨਾਂ ਫੀਚਰਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਉਤਪਾਦ ਦੇ ਹਰ ਵਰਜ਼ਨ ਵਿੱਚ ਬਣਾਉਣ ਲਈ ਮਜਬੂਰ ਕਰਦਾ ਹੈ। ਤੁਸੀਂ ਜਿੱਥੇ ਵੀ ਰਹਿੰਦੇ ਹੋ, ਤੁਹਾਨੂੰ ਇਹਨਾਂ ਗਲੋਬਲ ਨਿਯਮਾਂ ਦੇ ਲਾਭ ਮਿਲਦੇ ਹਨ, ਜੋ ਪੂਰੇ ਇੰਟਰਨੈਟ ਨੂੰ ਇੱਕ ਦੋਸਤਾਨਾ ਜਗ੍ਹਾ ਬਣਾਉਂਦੇ ਹਨ।
ਹਾਲ ਹੀ ਵਿੱਚ ਇਨਸੈਂਟਿਵ (incentives) ਵਿੱਚ ਵੱਡਾ ਬਦਲਾਅ ਆਇਆ ਹੈ। ਕੁਝ ਸਾਲ ਪਹਿਲਾਂ, ਟੀਚਾ ਸਿਰਫ ਕੁਝ ਨਵਾਂ ਲਾਂਚ ਕਰਨ ਵਾਲਾ ਪਹਿਲਾ ਵਿਅਕਤੀ ਬਣਨਾ ਸੀ। ਹੁਣ, ਟੀਚਾ ਸਭ ਤੋਂ ਭਰੋਸੇਮੰਦ ਬਣਨਾ ਹੈ। ਟੈਕ ਦੀ ਦੁਨੀਆ ਵਿੱਚ ਭਰੋਸਾ ਹੀ ਨਵੀਂ ਕਰੰਸੀ ਹੈ। ਜੇਕਰ ਕਿਸੇ ਕੰਪਨੀ ਦਾ ਡੇਟਾ ਲੀਕ ਹੁੰਦਾ ਹੈ ਜਾਂ ਜੇਕਰ ਉਹਨਾਂ ਦਾ AI ਮਾੜੀ ਸਲਾਹ ਦੇਣਾ ਸ਼ੁਰੂ ਕਰ ਦਿੰਦਾ ਹੈ, ਤਾਂ ਲੋਕ ਬਸ ਇੱਕ ਵੱਖਰੀ app ‘ਤੇ ਸਵਿਚ ਕਰ ਲੈਣਗੇ। ਇਹ ਮੁਕਾਬਲੇ ਦਾ ਦਬਾਅ ਚੰਗੇ ਲਈ ਇੱਕ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਾਕਤ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਭਾਵੇਂ ਕੋਈ ਕੰਪਨੀ ਜ਼ਿਆਦਾਤਰ ਆਪਣੇ ਮੁਨਾਫੇ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੋਵੇ, ਉਹਨਾਂ ਲਈ ਪੈਸਾ ਕਮਾਉਣ ਦਾ ਸਭ ਤੋਂ ਵਧੀਆ ਤਰੀਕਾ ਤੁਹਾਡੇ ਡੇਟਾ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣਾ ਅਤੇ ਤੁਹਾਡੇ ਅਨੁਭਵ ਨੂੰ ਸਕਾਰਾਤਮਕ ਬਣਾਉਣਾ ਹੈ। ਇਹ ਇੱਕ ਦੁਰਲੱਭ ਸਥਿਤੀ ਹੈ ਜਿੱਥੇ ਜੋ ਕਾਰੋਬਾਰ ਲਈ ਚੰਗਾ ਹੈ ਉਹ ਉਸ ਵਿਅਕਤੀ ਲਈ ਵੀ ਸਭ ਤੋਂ ਵਧੀਆ ਹੈ ਜੋ app ਦੀ ਵਰਤੋਂ ਕਰ ਰਿਹਾ ਹੈ।
ਅਸੀਂ ਬਹੁਤ ਸਾਰਾ ਸਹਿਯੋਗ ਵੀ ਦੇਖ ਰਹੇ ਹਾਂ ਜੋ ਅਸੀਂ ਪਹਿਲਾਂ ਨਹੀਂ ਦੇਖਿਆ ਸੀ। ਭਾਵੇਂ ਇਹ ਕੰਪਨੀਆਂ ਵਿਰੋਧੀ ਹਨ, ਉਹ ਸੁਰੱਖਿਆ ਜੋਖਮਾਂ ਬਾਰੇ ਜਾਣਕਾਰੀ ਸਾਂਝੀ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਰਹੀਆਂ ਹਨ। ਜੇਕਰ ਇੱਕ ਕੰਪਨੀ ਕਿਸੇ ਨਵੀਂ ਕਿਸਮ ਦੀ ਚਾਲ ਲੱਭਦੀ ਹੈ ਜੋ ਲੋਕ ਸੁਰੱਖਿਆ ਫਿਲਟਰਾਂ ਨੂੰ ਬਾਈਪਾਸ ਕਰਨ ਲਈ ਵਰਤ ਰਹੇ ਹਨ, ਤਾਂ ਉਹ ਅਕਸਰ ਦੂਜਿਆਂ ਨੂੰ ਦੱਸ ਦਿੰਦੇ ਹਨ ਤਾਂ ਜੋ ਹਰ ਕੋਈ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਪੈਚ ਕਰ ਸਕੇ। ਇਹ ਸਮੂਹਿਕ ਬਚਾਅ ਮਾੜੇ ਲੋਕਾਂ ਲਈ ਅੰਦਰ ਆਉਣ ਦਾ ਰਸਤਾ ਲੱਭਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਬਣਾਉਂਦਾ ਹੈ। ਇਹ ਇੱਕ ਨੇਬਰਹੁੱਡ ਵਾਚ ਪ੍ਰੋਗਰਾਮ ਵਾਂਗ ਹੈ ਜਿੱਥੇ ਹਰ ਕੋਈ ਪੂਰੀ ਗਲੀ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਲਈ ਇੱਕ ਦੂਜੇ ਦਾ ਖਿਆਲ ਰੱਖਦਾ ਹੈ। ਤੁਸੀਂ ਸਮਾਰਟ ਟੈਕਨਾਲੋਜੀ ‘ਤੇ ਨਵੀਨਤਮ ਅਪਡੇਟਸ botnews.today ਵਰਗੀਆਂ ਸਾਈਟਾਂ ‘ਤੇ ਦੇਖ ਸਕਦੇ ਹੋ ਕਿ ਇਹ ਸਾਂਝੇਦਾਰੀਆਂ ਅਸਲ ਸਮੇਂ ਵਿੱਚ ਕਿਵੇਂ ਵਿਕਸਤ ਹੋ ਰਹੀਆਂ ਹਨ।
ਹਰ ਕਿਸੇ ਲਈ ਦਿਨ ਨੂੰ ਚਮਕਦਾਰ ਬਣਾਉਣਾ
ਆਓ ਦੇਖੀਏ ਕਿ ਇਹ ਅਸਲ ਵਿੱਚ ਇੱਕ ਆਮ ਦਿਨ ਨੂੰ ਕਿਵੇਂ ਬਦਲਦਾ ਹੈ। ਸਾਰਾਹ ਨਾਮ ਦੀ ਇੱਕ ਛੋਟੀ ਕਾਰੋਬਾਰੀ ਮਾਲਕ ਦੀ ਕਲਪਨਾ ਕਰੋ ਜੋ ਇੱਕ ਬੁਟੀਕ ਫੁੱਲਾਂ ਦੀ ਦੁਕਾਨ ਚਲਾਉਂਦੀ ਹੈ। ਸਾਰਾਹ ਆਪਣੇ ਹਫਤਾਵਾਰੀ ਨਿਊਜ਼ਲੈਟਰ ਨੂੰ ਲਿਖਣ ਅਤੇ ਆਪਣੀ ਡਿਲੀਵਰੀ ਸਮਾਂ-ਸਾਰਣੀ ਨੂੰ ਵਿਵਸਥਿਤ ਕਰਨ ਲਈ AI ਦੀ ਵਰਤੋਂ ਕਰਦੀ ਹੈ। ਪਹਿਲਾਂ, ਉਹ ਚਿੰਤਤ ਹੋ ਸਕਦੀ ਸੀ ਕਿ ਆਪਣੀ ਗਾਹਕ ਸੂਚੀ ਨੂੰ ਇੱਕ ਸਮਾਰਟ ਟੂਲ ਵਿੱਚ ਪਾਉਣ ਦਾ ਮਤਲਬ ਇਹ ਹੋਵੇਗਾ ਕਿ ਉਹਨਾਂ ਦੀ ਨਿੱਜੀ ਜਾਣਕਾਰੀ ਲੀਕ ਹੋ ਸਕਦੀ ਹੈ ਜਾਂ ਕਿਸੇ ਜਨਤਕ ਮਾਡਲ ਨੂੰ ਟ੍ਰੇਨ ਕਰਨ ਲਈ ਵਰਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਪਰ ਬਿਹਤਰ ਰਿਸਕ ਮੈਨੇਜਮੈਂਟ ਦੇ ਕਾਰਨ, ਸਾਰਾਹ ਹੁਣ ਇਹਨਾਂ ਟੂਲਾਂ ਦੇ ਪੇਸ਼ੇਵਰ ਵਰਜ਼ਨ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੀ ਹੈ ਜਿਨ੍ਹਾਂ ਵਿੱਚ ਸਖਤ ਪ੍ਰਾਈਵੇਸੀ ਲੌਕ ਹਨ। ਉਹ ਤੇਜ਼ੀ ਨਾਲ ਕੰਮ ਕਰ ਸਕਦੀ ਹੈ ਅਤੇ ਸੁੰਦਰ ਗੁਲਦਸਤੇ ਡਿਜ਼ਾਈਨ ਕਰਨ ਵਿੱਚ ਜ਼ਿਆਦਾ ਸਮਾਂ ਬਿਤਾ ਸਕਦੀ ਹੈ, ਇਹ ਜਾਣਦੇ ਹੋਏ ਕਿ ਉਸਦੇ ਗਾਹਕਾਂ ਦਾ ਡੇਟਾ ਇੱਕ ਡਿਜੀਟਲ ਵਾਲਟ ਵਿੱਚ ਬੰਦ ਹੈ ਜਿਸ ਤੱਕ ਸਿਰਫ ਉਹ ਹੀ ਪਹੁੰਚ ਸਕਦੀ ਹੈ।
ਦੁਪਹਿਰ ਤੱਕ, ਸਾਰਾਹ ਇੱਕ ਨਵੀਂ ਦੁਕਾਨ ਦੀ ਵਿੰਡੋ ਡਿਸਪਲੇ ਲਈ ਵਿਚਾਰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਇੱਕ AI ਚਿੱਤਰ ਟੂਲ ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੀ ਹੈ। ਇੱਥੇ ਸੁਰੱਖਿਆ ਫੀਚਰ ਚੁੱਪਚਾਪ ਬੈਕਗ੍ਰਾਉਂਡ ਵਿੱਚ ਕੰਮ ਕਰ ਰਹੇ ਹਨ ਤਾਂ ਜੋ ਇਹ ਯਕੀਨੀ ਬਣਾਇਆ ਜਾ ਸਕੇ ਕਿ ਤਿਆਰ ਕੀਤੀਆਂ ਗਈਆਂ ਤਸਵੀਰਾਂ ਉਚਿਤ ਹਨ ਅਤੇ ਕਿਸੇ ਦੀ ਖਾਸ ਕਲਾਤਮਕ ਸ਼ੈਲੀ ਦੀ ਉਲੰਘਣਾ ਨਹੀਂ ਕਰਦੀਆਂ ਜੋ ਅਨੁਚਿਤ ਮਹਿਸੂਸ ਹੁੰਦੀ ਹੈ। ਉਸਨੂੰ ਕਾਨੂੰਨੀ ਜਾਂ ਨੈਤਿਕ ਸਿਰਦਰਦੀ ਦੀ ਚਿੰਤਾ ਕੀਤੇ ਬਿਨਾਂ ਰਚਨਾਤਮਕਤਾ ਦਾ ਵਾਧਾ ਮਿਲਦਾ ਹੈ ਜੋ ਪਹਿਲਾਂ ਗੱਲਬਾਤ ਦਾ ਹਿੱਸਾ ਹੁੰਦੇ ਸਨ। ਇਹ ਸਭ ਉਸਨੂੰ ਘੱਟ ਤਣਾਅ ਨਾਲ ਹੋਰ ਕਰਨ ਦੀ ਸ਼ਕਤੀ ਦੇਣ ਬਾਰੇ ਹੈ। ਇਹ ਉਸ ਸਾਰੀ ਸੁਰੱਖਿਆ ਮਾਰਕੀਟਿੰਗ ਦਾ ਅਸਲ-ਸੰਸਾਰ ਪ੍ਰਭਾਵ ਹੈ: ਇਹ ਇੱਕ ਸ਼ਕਤੀਸ਼ਾਲੀ, ਗੁੰਝਲਦਾਰ ਟੂਲ ਨੂੰ ਕੁਝ ਅਜਿਹਾ ਬਣਾ ਦਿੰਦਾ ਹੈ ਜੋ ਟੋਸਟਰ ਜਾਂ ਵੈਕਿਊਮ ਕਲੀਨਰ ਵਾਂਗ ਵਰਤਣ ਲਈ ਸਧਾਰਨ ਅਤੇ ਸੁਰੱਖਿਅਤ ਹੈ।
ਪ੍ਰਭਾਵ ਸਿਰਫ ਕਾਰੋਬਾਰ ਤੋਂ ਪਰੇ ਹੈ। ਇੱਕ ਵਿਦਿਆਰਥੀ ਬਾਰੇ ਸੋਚੋ ਜੋ ਇੱਕ ਵੱਡੀ ਪ੍ਰੀਖਿਆ ਲਈ ਅਧਿਐਨ ਕਰਨ ਲਈ ਇਹਨਾਂ ਟੂਲਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਰਿਹਾ ਹੈ। ਬਿਹਤਰ ਰਿਸਕ ਮੈਨੇਜਮੈਂਟ ਦੇ ਨਾਲ, AI ਦੇ ਤੱਥ ਬਣਾਉਣ ਜਾਂ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇਣ ਦੀ ਸੰਭਾਵਨਾ ਘੱਟ ਹੈ। ਗਾਰਡਰੇਲ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦੇ ਹਨ ਕਿ ਵਿਦਿਆਰਥੀ ਨੂੰ ਜੋ ਮਦਦ ਮਿਲਦੀ ਹੈ ਉਹ ਸਹੀ ਅਤੇ ਮਦਦਗਾਰ ਹੈ। ਇਹ ਵਿਸ਼ਵਾਸ ਪੈਦਾ ਕਰਦਾ ਹੈ ਅਤੇ ਸਿੱਖਣ ਨੂੰ ਵਧੇਰੇ ਮਜ਼ੇਦਾਰ ਬਣਾਉਂਦਾ ਹੈ। ਅਸੀਂ ਉਸ ਸਮੇਂ ਤੋਂ ਦੂਰ ਜਾ ਰਹੇ ਹਾਂ ਜਦੋਂ ਤੁਹਾਨੂੰ AI ਦੁਆਰਾ ਕਹੇ ਗਏ ਹਰ ਇੱਕ ਸ਼ਬਦ ਦੀ ਦੋ ਵਾਰ ਜਾਂਚ ਕਰਨੀ ਪੈਂਦੀ ਸੀ, ਅਤੇ ਉਸ ਸਮੇਂ ਵੱਲ ਵਧ ਰਹੇ ਹਾਂ ਜਦੋਂ ਇਹ ਸਿਸਟਮ ਸਾਡੇ ਰੋਜ਼ਾਨਾ ਜੀਵਨ ਵਿੱਚ ਭਰੋਸੇਮੰਦ ਭਾਈਵਾਲ ਹਨ। ਇਹ ਇੱਕ ਵੱਡਾ ਬਦਲਾਅ ਹੈ ਜੋ ਭਵਿੱਖ ਨੂੰ ਕਿਸੇ ਵੀ ਵਿਅਕਤੀ ਲਈ ਬਹੁਤ ਚਮਕਦਾਰ ਬਣਾਉਂਦਾ ਹੈ ਜੋ ਆਪਣੀ ਜ਼ਿੰਦਗੀ ਨੂੰ ਥੋੜਾ ਆਸਾਨ ਬਣਾਉਣ ਲਈ ਟੈਕ ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਪਸੰਦ ਕਰਦਾ ਹੈ।
ਕੋਈ ਸਵਾਲ, ਸੁਝਾਅ, ਜਾਂ ਲੇਖ ਦਾ ਵਿਚਾਰ ਹੈ? ਸਾਡੇ ਨਾਲ ਸੰਪਰਕ ਕਰੋ।ਕੀ ਇਹ ਸੰਭਵ ਹੈ ਕਿ ਅਸੀਂ ਵੱਡੇ, ਨਾਟਕੀ ਜੋਖਮਾਂ ‘ਤੇ ਇੰਨਾ ਜ਼ਿਆਦਾ ਧਿਆਨ ਦੇ ਰਹੇ ਹਾਂ ਕਿ ਅਸੀਂ ਛੋਟੇ, ਵਧੇਰੇ ਆਮ ਜੋਖਮਾਂ ਨੂੰ ਗੁਆ ਰਹੇ ਹਾਂ? ਜਦੋਂ ਕਿ ਅਸੀਂ ਇਸ ਬਾਰੇ ਗੱਲ ਕਰਨ ਵਿੱਚ ਬਹੁਤ ਸਮਾਂ ਬਿਤਾਉਂਦੇ ਹਾਂ ਕਿ ਕੀ ਕੋਈ AI ਬਹੁਤ ਜ਼ਿਆਦਾ ਸਮਾਰਟ ਹੋ ਸਕਦਾ ਹੈ, ਅਸੀਂ ਸ਼ਾਇਦ ਸਧਾਰਨ ਚੀਜ਼ਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰ ਰਹੇ ਹਾਂ ਜਿਵੇਂ ਕਿ ਇਹ ਸਿਸਟਮ ਕਿੰਨੀ ਊਰਜਾ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ ਜਾਂ ਉਹ ਸਾਡੇ ਇੱਕ ਦੂਜੇ ਨਾਲ ਗੱਲ ਕਰਨ ਦੇ ਤਰੀਕੇ ਨੂੰ ਕਿਵੇਂ ਬਦਲ ਸਕਦੇ ਹਨ। ਇਹ ਪੁੱਛਣਾ ਮਹੱਤਵਪੂਰਣ ਹੈ ਕਿ ਕੀ ਕਿਸੇ ਵੈਬਸਾਈਟ ‘ਤੇ ਸੁਰੱਖਿਆ ਬੈਜ ਕੁੱਲ ਸੁਰੱਖਿਆ ਦੀ ਗਰੰਟੀ ਹੈ ਜਾਂ ਸਿਰਫ ਇੱਕ ਸੰਕੇਤ ਹੈ ਕਿ ਕੰਪਨੀ ਨੇ ਕਾਨੂੰਨ ਦੁਆਰਾ ਲੋੜੀਂਦਾ ਘੱਟੋ-ਘੱਟ ਕੰਮ ਕੀਤਾ ਹੈ। ਸਾਡਾ ਡੇਟਾ ਕਿਸ ਕੋਲ ਹੈ ਅਤੇ ਇਸਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ, ਇਸ ਬਾਰੇ ਇੱਕ ਉਤਸੁਕ ਮਨ ਰੱਖਣਾ ਹਮੇਸ਼ਾਂ ਇੱਕ ਚੁਸਤ ਕਦਮ ਹੈ, ਭਾਵੇਂ ਸਾਫਟਵੇਅਰ ਅਵਿਸ਼ਵਾਸ਼ਯੋਗ ਤੌਰ ‘ਤੇ ਦੋਸਤਾਨਾ ਅਤੇ ਮਦਦਗਾਰ ਮਹਿਸੂਸ ਹੋਵੇ। ਸਾਨੂੰ ਪ੍ਰਗਤੀ ਬਾਰੇ ਉਤਸ਼ਾਹਿਤ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਨਾਲ ਹੀ ਸੁਵਿਧਾ ਲਈ ਸਾਡੇ ਦੁਆਰਾ ਕੀਤੇ ਗਏ ਸਮਝੌਤਿਆਂ ਬਾਰੇ ਸਹੀ ਸਵਾਲ ਵੀ ਪੁੱਛਣੇ ਚਾਹੀਦੇ ਹਨ।
ਕੀ ਤੁਹਾਡੇ ਕੋਲ ਕੋਈ AI ਕਹਾਣੀ, ਟੂਲ, ਰੁਝਾਨ ਜਾਂ ਸਵਾਲ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਸਾਨੂੰ ਕਵਰ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ? ਸਾਨੂੰ ਆਪਣਾ ਲੇਖ ਦਾ ਵਿਚਾਰ ਭੇਜੋ — ਅਸੀਂ ਇਸਨੂੰ ਸੁਣਨਾ ਪਸੰਦ ਕਰਾਂਗੇ।ਪਾਵਰ ਯੂਜ਼ਰ ਦਾ ਨਜ਼ਰੀਆ
ਉਹਨਾਂ ਲਈ ਜੋ ਹੁੱਡ ਦੇ ਹੇਠਾਂ ਦੇਖਣਾ ਪਸੰਦ ਕਰਦੇ ਹਨ, AI ਜੋਖਮਾਂ ਨੂੰ ਸੰਭਾਲਣ ਦਾ ਤਰੀਕਾ ਬਹੁਤ ਜ਼ਿਆਦਾ ਤਕਨੀਕੀ ਅਤੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੁੰਦਾ ਜਾ ਰਿਹਾ ਹੈ। ਅਸੀਂ ਸਥਾਨਕ ਪ੍ਰੋਸੈਸਿੰਗ (local processing) ਵੱਲ ਇੱਕ ਕਦਮ ਦੇਖ ਰਹੇ ਹਾਂ, ਜਿੱਥੇ app ਦੇ ਸਮਾਰਟ ਹਿੱਸੇ ਬਹੁਤ ਦੂਰ ਕਿਸੇ ਵਿਸ਼ਾਲ ਡੇਟਾ ਸੈਂਟਰ ਦੀ ਬਜਾਏ ਸਿੱਧੇ ਤੁਹਾਡੇ ਫੋਨ ਜਾਂ ਕੰਪਿਊਟਰ ‘ਤੇ ਚੱਲਦੇ ਹਨ। ਇਹ ਪ੍ਰਾਈਵੇਸੀ ਲਈ ਇੱਕ ਵੱਡੀ ਜਿੱਤ ਹੈ ਕਿਉਂਕਿ ਤੁਹਾਡਾ ਡੇਟਾ ਤੁਹਾਡੀ ਡਿਵਾਈਸ ਨੂੰ ਕਦੇ ਨਹੀਂ ਛੱਡਦਾ। ਇਹ ਇੱਕ ਨਿੱਜੀ ਅਸਿਸਟੈਂਟ ਹੋਣ ਵਰਗਾ ਹੈ ਜੋ ਤੁਹਾਡੇ ਘਰ ਵਿੱਚ ਰਹਿੰਦਾ ਹੈ ਅਤੇ ਬਾਹਰ ਕਿਸੇ ਨੂੰ ਵੀ ਤੁਹਾਡੇ ਰਾਜ਼ ਨਹੀਂ ਦੱਸਦਾ। ਇਹ ਵਧੇਰੇ ਕੁਸ਼ਲ ਮਾਡਲਾਂ ਦੁਆਰਾ ਸੰਭਵ ਹੋਇਆ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਸੋਚਣ ਲਈ ਸਰਵਰਾਂ ਦੇ ਪੂਰੇ ਕਮਰੇ ਦੀ ਲੋੜ ਨਹੀਂ ਹੁੰਦੀ। ਇੱਥੇ ਕੁਝ ਤਰੀਕੇ ਹਨ ਜਿਨ੍ਹਾਂ ਨਾਲ ਪਾਵਰ ਯੂਜ਼ਰ ਆਪਣੇ AI ਅਨੁਭਵ ਨੂੰ ਕੰਟਰੋਲ ਕਰ ਰਹੇ ਹਨ:
- ਸੰਵੇਦਨਸ਼ੀਲ ਦਸਤਾਵੇਜ਼ ਵਿਸ਼ਲੇਸ਼ਣ ਲਈ ਪੂਰੀ ਤਰ੍ਹਾਂ ਆਫਲਾਈਨ ਚੱਲਣ ਵਾਲੇ ਸਥਾਨਕ LLMs ਦੀ ਵਰਤੋਂ ਕਰਨਾ।
- ਕਸਟਮ ਸਿਸਟਮ ਪ੍ਰੋਂਪਟ ਸੈੱਟ ਕਰਨਾ ਜੋ AI ਨੂੰ ਦੱਸਦੇ ਹਨ ਕਿ ਕਿਹੜੀਆਂ ਸੀਮਾਵਾਂ ਦਾ ਸਤਿਕਾਰ ਕਰਨਾ ਹੈ।
- ਅਚਾਨਕ ਖਰਚਿਆਂ ਜਾਂ ਡੇਟਾ ਸ਼ੇਅਰਿੰਗ ਨੂੰ ਰੋਕਣ ਲਈ ਸਖਤ ਵਰਤੋਂ ਸੀਮਾਵਾਂ ਦੇ ਨਾਲ API ਕੁੰਜੀਆਂ ਦੀ ਵਰਤੋਂ ਕਰਨਾ।
- ਉਹ ਪਲੇਟਫਾਰਮ ਚੁਣਨਾ ਜੋ ਡੇਟਾ ਟ੍ਰੇਨਿੰਗ ਲਈ ਸਪੱਸ਼ਟ ਆਪਟ-ਆਊਟ ਟੌਗਲ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦੇ ਹਨ।
- AI ਆਉਟਪੁੱਟ ‘ਤੇ ਸਵੈਚਲਿਤ ਜਾਂਚ ਚਲਾਉਣਾ ਤਾਂ ਜੋ ਇਹ ਯਕੀਨੀ ਬਣਾਇਆ ਜਾ ਸਕੇ ਕਿ ਇਹ ਖਾਸ ਸੁਰੱਖਿਆ ਮਾਪਦੰਡਾਂ ਨੂੰ ਪੂਰਾ ਕਰਦਾ ਹੈ।
ਇੱਕ ਹੋਰ ਵੱਡਾ ਵਿਕਾਸ ਵੈਕਟਰ ਡੇਟਾਬੇਸ ਅਤੇ ਰਿਟਰੀਵਲ-ਔਗਮੈਂਟਡ ਜਨਰੇਸ਼ਨ (RAG) ਦਾ ਉਭਾਰ ਹੈ। ਇਹ ਗੁੰਝਲਦਾਰ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹ AI ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਦਾ ਅਸਲ ਵਿੱਚ ਇੱਕ ਬਹੁਤ ਹੀ ਚਲਾਕ ਤਰੀਕਾ ਹੈ। AI ਨੂੰ ਸਭ ਕੁਝ ਜਾਣਨ ਦੇ ਬਜਾਏ, ਉਸਨੂੰ ਤੁਹਾਡੇ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਲਈ ਦਸਤਾਵੇਜ਼ਾਂ ਦਾ ਇੱਕ ਖਾਸ ਸੈੱਟ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ। ਇਹ AI ਨੂੰ ਫੋਕਸ ਰੱਖਦਾ ਹੈ ਅਤੇ ਇਸਨੂੰ ਇੰਟਰਨੈਟ ਦੇ ਉਹਨਾਂ ਹਿੱਸਿਆਂ ਵਿੱਚ ਭਟਕਣ ਤੋਂ ਰੋਕਦਾ ਹੈ ਜੋ ਅਵਿਸ਼ਵਾਸ਼ਯੋਗ ਜਾਂ ਅਸੁਰੱਖਿਅਤ ਹੋ ਸਕਦੇ ਹਨ। ਇਹ ਇੱਕ ਖੋਜਕਰਤਾ ਨੂੰ ਪੂਰੀ ਦੁਨੀਆ ਵਿੱਚ ਜਵਾਬ ਲੱਭਣ ਦੇਣ ਦੇ ਬਜਾਏ ਪ੍ਰਮਾਣਿਤ ਕਿਤਾਬਾਂ ਦਾ ਇੱਕ ਖਾਸ ਸਟੈਕ ਦੇਣ ਵਰਗਾ ਹੈ। ਇਹ ਵਿਧੀ ਉਹਨਾਂ ਕਾਰੋਬਾਰਾਂ ਲਈ ਗੋਲਡ ਸਟੈਂਡਰਡ ਬਣ ਰਹੀ ਹੈ ਜਿਨ੍ਹਾਂ ਨੂੰ ਆਪਣੇ ਨਿੱਜੀ ਡੇਟਾ ਦੇ ਨਾਲ AI ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਲੋੜ ਹੈ।
BotNews.today ਸਮੱਗਰੀ ਦੀ ਖੋਜ, ਲਿਖਣ, ਸੰਪਾਦਨ ਅਤੇ ਅਨੁਵਾਦ ਕਰਨ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਸਾਡੀ ਟੀਮ ਜਾਣਕਾਰੀ ਨੂੰ ਉਪਯੋਗੀ, ਸਪਸ਼ਟ ਅਤੇ ਭਰੋਸੇਮੰਦ ਰੱਖਣ ਲਈ ਪ੍ਰਕਿਰਿਆ ਦੀ ਸਮੀਖਿਆ ਅਤੇ ਨਿਗਰਾਨੀ ਕਰਦੀ ਹੈ।
ਅਸੀਂ ਅਸਲ ਸਮੇਂ ਵਿੱਚ AI ਦੀ ਨਿਗਰਾਨੀ ਕਰਨ ਲਈ ਬਿਹਤਰ ਟੂਲ ਵੀ ਦੇਖ ਰਹੇ ਹਾਂ। ਡਿਵੈਲਪਰ ਹੁਣ ਬਿਲਕੁਲ ਦੇਖ ਸਕਦੇ ਹਨ ਕਿ ਇੱਕ ਮਾਡਲ ਕਿਸੇ ਖਾਸ ਸਿੱਟੇ ‘ਤੇ ਕਿਵੇਂ ਪਹੁੰਚ ਰਿਹਾ ਹੈ, ਜਿਸ ਨਾਲ ਪੱਖਪਾਤ ਨੂੰ ਲੱਭਣਾ ਅਤੇ ਠੀਕ ਕਰਨਾ ਬਹੁਤ ਸੌਖਾ ਹੋ ਜਾਂਦਾ ਹੈ। ਇਹ ਪਾਰਦਰਸ਼ਤਾ ਉਹਨਾਂ ਸਿਸਟਮਾਂ ਨੂੰ ਬਣਾਉਣ ਦੀ ਕੁੰਜੀ ਹੈ ਜੋ ਸਿਰਫ ਸੁਰੱਖਿਅਤ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਨਿਰਪੱਖ ਵੀ ਹਨ। ਜਦੋਂ ਅਸੀਂ ਸਾਫਟਵੇਅਰ ਦੀ